Необхідний базовий SEO софт для початківців. Безкоштовні програми для SEO оптимізаторів Програми для сеошника

Всім привіт! Сьогодні чудовий день і я вирішив розповісти про безкоштовну програмі для розкручування сайтуабо блог. Раніше ми вже говорили про – зараз це доступно кожному.

Кожен магазин, що поважає себе, або громадська організація і навіть звичайні користувачі мають власні сторінки в інтернеті, свої сайти. Але не кожен здатний просунути ресурс, розкрутити його на повну програму.

І тут на допомогу початківцям вебмайстрам і тим, хто не особливо добре розуміється на темі, приходить дуже цікава програма. Вона називається WebPopular, остання версія 1.04. Рекомендується використовувати останню версію з кількох причин:

  • розкрутка сайту найефективніша;
  • швидкість розкрутки сайтушвидше, порівняно з попередніми версіями;
  • стабільна робота програми.

Програма знаходиться в архіві і не вимагає установки, достатньо розпакувати в будь-яке місце і запустити файл, що виконується.

Це дуже зручно, що немає інсталятора, особливо для тих, хто користується подібним софтом на робочих комп'ютерах, де стоїть заборона встановлення ПЗ. Мені дуже часто доводиться користуватися портативними версіями, програма WebPopular входить до їх числа.

Після запуску програми відкриється головне вікно, де потрібно вказати адресу сайту, який потрібно розкрутити. Наприклад, я вводжу адресу свого блогу:

Програма відкриє у своєму вікні перегляд головної сторінки сайту, якщо все правильно відображається, то можна продовжувати натисканням кнопки Розкрутити, процес розкрутки почнеться негайно. Якщо Ви раптом неправильно ввели адресу, то можете повернутися назад і знову заповнити рядок:

Природно, що для роботи програми потрібне пряме підключення до Інтернету. Сам процес безкоштовної розкрутки сайтупроходить дуже швидко, при цьому не важливо було виконано сторінок чи ні.

Але перед роботою з цим інструментом я рекомендую скористатися , який ще на початковому етапі допоможе відсіяти - таким чином розкрутка сайту буде найбільш ефективна і результат отримаєте швидше.

Ось і все за оглядом програми, сьогодні такий гарний день, що не хочеться довго засиджуватися за комп'ютером - погода на вулиці просто чудова, по-справжньому весняна. До речі, це перший пост, який пишу на новому ноутбуці Dell XPS L702X, можливо напишу трохи про нове придбання найближчими днями, до зустрічі!

Для великих проектів у пошуковому просуванні краще скористатися платними інструментами, які дають суттєву перевагу у продуктивності, проте для ясного розуміння, як працює SEO, можна починати з безкоштовного софту.

Робота з цим SEO софтом не вимагатиме інших витрат крім часу на навчання та певної посидючості, що є великим плюсом для оптимізаторів-початківців.

Софт для складання семантичного ядра

Правильне просування сайту потрібно розпочинати ще на етапі його створення.

Для досягнення найбільшої ефективності кожна сторінка сайту повинна мати певну мету і повинна бути заточена під відповідні пошукові запити.

Для деяких ніш можна використовувати , що допоможе досягти перших результатів порівняно швидко.

Про способи підбору ключових слів можна прочитати.

Можна підбирати запити вручну, копіюючи фрази Яндекс Вордстата в Exel, сортуючи та обробляючи їх вручну, але це може стати вкрай неефективним для проектів з великою кількістю ключових слів, тому освоюватимемо способи автоматизації.

Магадан – досить популярна програма у рунеті для роботи з ключовими словами. Існує у двох версіях – платна Pro та безкоштовна версія Lite. Роботу з останньою ми розберемо, добре, що у неї функціонал майже не відрізняється від повної версії.

Основні можливості програми:

  • збирання статистики запитів з Яндекс.Директ;
  • збереження результатів у власних базах для подальшої роботи;
  • широкі можливості фільтрів ключових слів.

Магадан автоматизує трудомісткі завдання парсингу ключових слів, викачуючи цілі сторінки пошукових запитів вордстату. А потім він може збудувати взаємозв'язок між групами запитів. Ще не існує аналогів із таким набором опцій, як у цієї програми.

Трохи докладніше про можливості:

  • автоматизація збору ключових слів
  • обробка точних запитів у лапках і з знаками оклику перед словами
  • збирання регіональної статистики геозалежних запитів (тільки для версії Pro)
  • автоматизація великої кількості рутиних завдань із обробки запитів: об'єднання, очищення тощо.
  • автоматичне додавання до черги парсингу запитів за заданим шаблоном, тобто Магадан може безперервно працювати замість вас
  • перевірка запитів без захаращення бази ключових слів
  • імпорт/експорт зібраних запитів у файли. Підтримуються формати txt, CSV/MS Excel, SQL-дамп MySQL та кодування Win-1251, UTF-8

Порядок роботи з програмою такий:

  • Підключити або створити нову базу ключових слів, можна задати шлях збереження бази запитів. База зберігається у бінарних файлах власного формату.

  • Заповнити чергу запитів на парсинг, можна додавати слова вручну або імпортувати із зовнішнього файлу.

  • З черги “на парсинг” запити автоматично зберігаються у раніше підключеній базі даних.
  • Встановити оптимальний час затримки при парсингу, щоб уникнути бана від вордстату.
  • Після завершення парсингу можна виділити всі слова або певні групи у файл бажаного формату.

Обмеження версії Магадан Lite:

  • Не можна вказати регіони запитів.
  • Немає звукового повідомлення про завершення парсингу.
  • Немає автоматичного додавання проксі-серверів.
  • Немає підтримки Antigate API.

Ця програма, незважаючи на неблагозвучну назву, вважається найкращою з безкоштовних для .

Незважаючи на сильно урізаний функціонал у порівнянні з KeyCollector, у цього софту все ще залишається багато корисних можливостей для збору та аналізу ключових слів.

Можливості:

  • Вміє збирати всі запити статистики Яндекс Wordstat, збирає як із лівої, так і з правої колонки сервісу. Без обмежень, тобто нічим не гірше ніж використовувати статистику запитів Яндекса вручну.
  • Збір статистики LiveInternet з урахуванням популярності пошукових фраз для збору семантичного ядра.
  • Визначення конкурентності пошукових запитів з числа сайтів в індексі за цим запитом, конкуренцію можна оцінити приблизно.
  • Визначення найрелевантнішої сторінки, а це важливо для правильної внутрішньої перелінковки сайту.

Інтерфейс

Slovoeb дуже схожий на Key Collector, має інтуїтивно зрозумілий інтерфейс, в якому легко розібратися.

  1. Панель швидкого доступу, за допомогою якої починається робота з проектами та налаштуваннями софту.
  2. Кнопка зупинки – не всі завдання бездоганні і в момент усвідомлення своєї помилки процес можна зупинити.
  3. Стоп-слова: не всі слова однаково корисні для нашого сайту, тому можна додати список винятків із пошукових запитів. Так ми скорочуємо час роботи і відсікаємо все зайве.
  4. Регіони Яндекс Wordstat дозволяють працювати з геозалежними пошуковими запитами – опція особливо актуальна для локальних інтернет-магазинів та регіональних сайтів.
  5. Ліва колонка Yandex.WordStat – саме з неї виконуватиметься пакетний збір ключових слів разом із їх базовими частотностями.
  6. Права колонка Yandex.Wordstat – запускає парсинг схожих запитів із правої колонки сервісу Вордстат.
  7. Частотності Yandex.Wordstat – існують різні види частотностей пошукових запитів, меню, що випадає, дозволяє вибрати будь-який з них або все. Така опція дозволяє підібрати найефективніші ключові слова.

Що потрібно знати про частотність Яндекса:

  • Базові частотності - всі запити у будь-якій формі;
  • Частотності “ ” – тільки цей запит і всі його словоформи (відмінювання), більш довгі запити, що містять вказаний запит, будуть відкинуті.
  • Частотності "!" - Тільки точні запити.
  1. Сезонність Yandex.Wordstat допоможе дізнатися відомості про частоти пошукових запитів у різні періоди року.
  2. Пошукові підказки. Для популярних запитів у популярних пошукових систем (Яндекс, Google, Mail.ru, Рамблер, Nigma і Yahoo!) можна отримати пошукові підказки, які зазвичай показують користувачам у рядку пошуку.
  3. KEI – показник конкуренції залежить від того, скільки сайтів в індексі Yandex і Google відповідають ключовому слову.
  4. Аналіз релевантних сторінок для сайту. Прописавши адресу свого сайту, можна дізнатися адресу найрелевантнішої сторінки, тобто тієї, яку Яндекс або Google вважають найавторитетнішою за цим запитом. Тобто можна ухвалити рішення, яку сторінку просувати під той чи інший запит.
  5. Вказати регіон потрібно для точного визначення релевантності.

Налаштування

Найважливіші настройки знаходяться у вкладці Загальніі Парсинг/Yandex.WordStat.

Розглянемо докладніше налаштування Загальні:

  • Таймаути необхідні щоб уникнути бана IP у процесі парсингу сервісом Вордстата;
  • Оптимальна кількість повторних спроб близько 3 якщо виникла помилка парсингу або Вордстат все-таки зробив тимчасове блокування IP, у такому разі доведеться використовувати проксі або чекати;
  • Рядки з неотриманими данимизбирати інформацію лише за тими запитами, які ще повністю оброблені;
  • Видаляти зі слів спецсимволи та наводити слова в нижній регістр – все, що нам не потрібно фільтруємо за допомогою цих опцій.

Парсинг/Yandex.WordStat:

Налаштуємо парсинг статистики Вордстату:

  • Глибина парсингу - для початку досить виставити в 0, якщо ж буде потрібно більше значення, то не обійтися без проксі та таймаутів;
  • Парсити сторінок: максимальна кількість сторінок, які віддає сервіс Вордстату – 40, а на кожній сторінці 50 запитів більше цієї кількості зібрати не вийде (всього до 2000 кейвордів);
  • Вибір базової частотності, за якою вестиметься парсинг, залежить від конкурентності теми і того, наскільки частотні запити нам знадобляться. Для тонкої ніші можна поставити від 30, а для широкої від 50-200. Верхнє значення допоможе відсікти високочастотники, якщо нам потрібне просування тільки за запитами НЧ.
  • Кількість потоків - поставити не надто багато, щоб не викликати підозр Вордстата, почати можна з 1;
  • Види частотностей ставимо ті, які нам потрібні. Зазвичай збору семантичного ядра досить базової і точної(“!”) частотності. Частотності "лапки" можна не використовувати.

Для пасингу кейвордів пройдемо через наступні стадії:


Додатковоможна ще зробити такі кроки:

  • Дізнатися конкуренцію KEI та відібрати відповідні слова
  • Визначити релевантні сторінки за найважливішими ключовими запитами
  • Експортувати результати у файл.

Ось так проводиться весь процес збору ключових слів із лівої колонки Вордстату. Чи потрібно розширити тематику? Тоді всі ці кроки можна виконати і для правого стовпця Yandex.Wordstat.

Аналіз та складання семантичного ядра

Потім нам потрібно дізнатися про конкуренцію за ключовими словами. Для цього можна використовувати можливості програми Slovoeb та отримати кількість конкуруючих сайтів за цими запитами.

Але для отримання більшої кількості та якості даних можна скористатися можливостями seo-агрегаторів. Наприклад, отримані запити можна додати до посилальних агрегаторів SeoPult або ROOKEE і дізнатися їх вартість просування.

Ретельний аналіз отриманих ключових слів допоможе побудувати семантичне ядро ​​сайту.

Отже, ця програма чудово справляється зі своїми завданнями та освоїти її не так складно, як здається на перший погляд.

Робота з контентом сайту

Пошукові системи постійно підвищують вимоги якості до сайтів, особливо нових проектів. Одним із алгоритмів, що визначають якість сайтів, є перевірка контенту на унікальність. Контентом сайту є весь його вміст, який може бути проіндексований - це тексти, графіка, відео та інші web об'єкти.

Контент на сайті має бути корисним для людей, надавати цінну інформацію, товари чи послуги. Якщо сайт вигідно відрізняється від своїх конкурентів, містить унікальні статті та картинки, то за інших рівних умов він ранжуватиметься вище за інших.

Слід враховувати, що однієї унікальності мало, контент не повинен бути автоматично генерованим, а сайт не повинен вводити в оману ні відвідувачів, ні пошукові системи.

Залежно від тяжкості порушень, такий сайт ризикує потрапити під санкції пошукових систем: потрапити під фільтри, повністю випасти з індексу пошукової системи і навіть піти в бан. У разі бана сайт стає забороненим для індексації.

Тому для успішного розвитку сайту потрібно наповнювати його унікальними статтями, оскільки пошукових систем плагіаторів не люблять.

Advego Plagiatus та Etxt Антиплагіат

Для перевірки статей на унікальність існує спеціальний софт: AdvegoPlagiatus(Адвего плагіатус) від біржі статей Advego та Etxt Антиплагіятвід etxt.ru

Ці програми перевіряють на унікальність статті, у них подібний принцип дії, хоча при своїй роботі вони можуть видавати кілька результатів. Якщо дозволяють можливості, краще перевіряти статті на унікальність цими двома програмами, хоча зазвичай користуються якимось одним інструментом.

Не будемо докладно заглиблюватись особливо роботи пошукових систем щодо визначення унікальності тексту. Скажімо лише, що є таке поняття як шингл («черепиця», «цеглинка», «комірка») – це послідовність кількох слів у певному порядку. За цією послідовністю визначається унікальність статті.

Якщо ви хочете купувати статті або замовляти їх у копірайтерів, то перевіряти їхню роботу ви можете за допомогою цих програм, адже хороша стаття має бути не тільки інформативною та корисною, але й бути досить унікальною і не містити в собі плагіату.

Зрозуміло, що важко вигадати щось своє і кожна стаття, яка технічно не є плагіатом, логічно залишається модифікованою послідовністю запозичених ідей у ​​інших авторів. Але вся журналістика стоїть на запозиченні одна в одної інформації, її аналізі та синтезі.

Потрібно добре розбиратися в тематиці сайту, так щоб при додаванні нових статей не постраждала їхня достовірність, а сайт ніс актуальну та якісну інформацію. Вимоги до якості контенту у сайтів різного призначення відрізняються і чим вони вищі, тим більший бюджет знадобиться.

Отже, розглянемо програму При її запуску ми повинні перевірити наявність оновлень, тому що тільки остання версія гарантує достовірність результатів: щось може змінитися в алгоритмі програми і, якщо ми користуємося старою версією, то в деяких випадках вона може видавати унікальну статтю за плагіат або навпаки, вона може копіпаст (скопійований контент) вважати унікальним.

У текстове поле цієї програми ми вставляємо текст статті та запускаємо перевірку. Швидше за все, програма у нас вимагатиме розпізнавання російської каптчі, що не дуже зручно при перевірці великої кількості статей. Пошукові системи вимагають від нас підтвердити, що за комп'ютером сидить людина, а не робот надсилає їм запити.

Однак у налаштуваннях програми можна вказати обліковий запис сервісу для розпізнавання каптчі, послуги цих сервісів коштують зовсім недорого, але при цьому дозволяють економити дорогоцінний час.
Після того, як відбулася перевірка, програма показує нам результати: вона шукає фрагменти тексту, що збігаються, і показує посилання на ті сторінки сайтів, на яких був виявлений схожий текст. Потім вона підсумовує унікальність статті і показує нам результат, чи то рерайт, чи то копірайт. В ідеалі має бути стовідсоткова унікальність статті, але для деяких текстів, особливо технічних, цього досягти досить важко, тим більше якщо тема статті поширена і по ній опубліковано досить багато матеріалів.


Докладно розглянувши роботу адвего плагіатуса, ми зазначимо, що Etxt Антиплагіат працює аналогічним чином. Якщо ми перевірили унікальність тексту в обох програмах, ми можемо бути впевнені в достовірності результатів.

  • Може виконувати пакетну перевірку файлів на диску
  • Сканувати сайт та перевіряти на унікальність усі його сторінки, створювати докладний звіт
  • Працювати зі списком проксі-серверів
  • Розпізнавати капчі пошуковиків
  • Вести історію перевірок

Як бачимо, функціонал Etxt Антиплагіат набагато потужніший, ніж Advego Plagiatus.

Перевірка позицій та аудит сайту

Найпростіший і найуспішніший шлях правильного розвитку свого проекту за відсутності достатнього досвіду – це навчитися у конкурентів.

А для успішної та ефективної SEO розвідки нам знадобляться програми, які допоможуть виконати аудит сайтів конкурентів та розібратися, чому ж вони займають ті чи інші позиції видачі за певними запитами.

Крім того, ці ж програми нам знадобляться у процесі роботи над власним сайтом, оскільки створення більш-менш серйозного проекту наразі це не питання одного дня. Це може займати досить тривалий час і на сайті постійно йтиме розвиток. За всім цим процесом потрібно стежити та аналізувати, чи не припустилися ми помилок, які можуть нам істотно перешкодити процесу пошукового просування сайту.

- Безкоштовна програма для аналізу сайту. Виконує сканування, використовуючи власний робот, схожий за алгоритмом роботи на роботів пошукових систем.

Перевіряє параметри сайту та аналізує їх, надає нам такі можливості:

  • Допомагає знаходити помилки, неправильні редиректи, биті посилання, дублікати заголовків сторінок (title), описи (description), ключових слів (keywords)
  • Аналіз усіх посилань для кожної сторінки сайту (вихідних та вхідних)
  • Оцінка ваги кожної станиці (по GooglePageRank)
  • Безліч опцій сканування та аналіз роботи robots.txt
  • Вивантаження результатів роботи у формат Excel

Спочатку вводимо адресу сайту, який аналізуватимемо:

Кількість потоків програми та таймаути дозволять вибрати оптимальний режим роботи між швидкістю аналізу та навантаженням на хостинг сайту.

Налаштуємо необхідні опції:

Linkcanonical– вказує адресу сторінки (якщо є дублі сторінок, то одна з них повинна бути або закрита від індексації або на інший повинен бути тег “rel=canonical”).

Відповідь– можна перевірити помилки сервера, чи він коректно обробляє сторінки сайту.

Title– бажано прописувати вручну або за допомогою спеціальних плагінів, не повинен бути генерованим (містити осмислений текст).

Теги Descriptionі Keywords: відображає теги. Деякі вважають, що вони застаріли, а їх відсутність не є критичною помилкою, проте їхня наявність підвищує якість сайту в очах пошукових систем. Не рекомендується зловживати тегами: перевантажувати їх ключовими словами, що повторюються, або вводити відвідувачів в оману неправильними description (опис станиці в сніпеті пошукової видачі).

Якщо ми сканували роботу, то у нас доступна колонка robots.txtтаким чином ми можемо бачити як працюють .

Редиректипотрібно враховувати, особливо якщо на ці сторінки проставлені посилання

Кожна сторінка повинна містити один заголовок H1якомога ближче до її початку.

У пошуковому просуванні важливу роль відіграють посилання, навіть якщо говорять про їхню «скасування», але іншої альтернативи пошукові алгоритми не мають.

(внутрішні посилання + зовнішні посилання) Передають деяку вагу, при цьому він може «витікати», тобто сама сторінка втрачає деяку частину ваги. Тут необхідно звернути увагу до зовнішні посилання. Вважається, що багато зовнішніх посилань – це погано, якщо зовнішніх посилань більше 100, можна потрапити під фільтр за посилальний спам.

Посилання на цю сторінку– можна переглянути та проаналізувати посилання власного сайту на цю сторінку. Для перегляду посилань з інших сайтів потрібно скористатися спеціальними сервісами, наприклад, Ahrefs.

У правій колонці – знайти дублікати

Як правило, дублікатами будуть сторінки пагінації та архівів, це нормально, якщо вони закриті від індексації засобами CMS або robots.txt. Якщо ж бачимо звичайну сторінку – дублікат, на це слід звернути особливу увагу.

Зазвичай це може бути сторінка коментаря.

Експорт в Exelможе включати результати і дублікати.

Кодування береться із заголовків або мета-тегів, якщо не встановити його автоматично.

– це чудова програма для визначення позицій сайту, ТІЦ, Pr, Alexa Rank та інших показників, перевірка параметрів здійснюється досить швидко. Тому з її допомогою можна стежити не лише за своїми сайтами, але й переглянути сайти конкурентів, що може допомогти просувати сайт.

Програма надає можливості дізнатися:

  • Позиції сайту в пошукових системах за ключовими словами
  • ТИЦ та Google PageRank
  • Індексація сайту у різних ПС
  • Наявність сайту в популярних каталогах: Яндекс, Mail.ru, Рамблер, Dmoz, Yahoo!
  • Статистика відвідування сайту із різних сервісів та інші показники.

Зібрана інформація зберігається на диск, тому можна відстежити історію розвитку сайту.
Безліч значень, які допомагає визначити ця програма клікабельні і за цими посиланнями можна отримати багато додаткової інформації.

Відразу після відкриття програми в адресний рядок можна написати назву свого сайту та виконати експрес аналіз.

Найчастіше у цій програмі зручно користуватись для перевірки позицій сайту. Це зробити просто: додамо список основних ключових слів, за якими просувається сайт і натискаємо кнопку перевірити. Природно, на цьому сайті мають бути статті із цими ключовими словами.

Слідкуючи за основними позиціями вашого сайту за певними запитами, можна стежити, як просувається сайт, які сторінки просуваються найбільш вдало і як обігнати конкурентів.

Отже, для перевірки позицій переходимо на вкладку «Підбір запитів» та вставляємо у текстове поле список ключових слів, натискаємо «Скопіювати» (праворуч від поля кнопка з текстом та стрілкою). Програма перекине запити на вкладку «Видимість сайту», натискаємо кнопку «Перевірити». Яндекс може запитати капчу, що не дуже зручно, але через деякий час нам будуть показані позиції нашого сайту.

Варто відзначити, що ця програма також дозволяє відстежувати зворотні посилання та відвідуваність сайту. Чим більше якісних зворотних посилань на наш сайт поставлено, тим кращі позиції він може зайняти за умови дотримання правил лінкбілдингу.

Також програма дозволяє переглянути, які лічильники встановлені на сайті перейти до їхньої статистики, якщо вона доступна для нас.

- Цей софт призначений для обчислення ваги сторінок сайту. Програма досить проста і водночас функціональна.

Розберемо її сильні та слабкі сторони з позиції SEO.

Обмеження програми:

  • Якщо сайт дуже великий, а хостинг дешевий і слабкий, отримання даних займе багато часу;
  • Цей софт не відображає, на яких сторінках знаходяться зовнішні посилання;
  • Скромний набір опцій безкоштовної програми. Тут годі очікувати багатого функціоналу на кшталт наочної візуалізації передачі ваги між сторінками.

Можливості:

  • Встановлювати час затримки між запитами – корисно, якщо слабкий хостинг;
  • Вибрати, чи враховувати атрибути rel=nofollow, теги noindex, та файл robots.txt;
  • Вказати User-agent: PageWeight, що дозволить фільтрувати статистику, щоб не псувати звіти у системі аналітики;
  • Виявити биті посилання, за якими вага сторінки йде в нікуди і там зникає (для сайтів на WordPress існує плагін Broken Link Checker, який виконує це завдання і надсилає на пошту звіти про проблеми);
  • Вказати кілька ітерацій для більш точних даних розрахунку ваг;
  • Експортувати результати роботи програми у файл формату CSV, підтримується також експорт XML- та HTML-картки сайту;
  • Завантажити XML-карту сайту для розрахунку ваги конкретних сторінок сайту.

Розберемо роботу програми по порядку.

  • У наступному вікні прописуємо список сторінок, що цікавлять, щодо основного Url:

Сліш означає корінь сайту, тобто у цьому випадку сканувати весь сайт. Тиснемо кнопку ОК і потім "Отримати дані" - кнопка внизу зліва.

  • Отримуємо дані про сторінку або сайт:

Прикро, що кнопку «Розрахунок ваги» можна пропустити і потім лаяти цю програму, тому що ця кнопка ховається в нижньому правому кутку і в деяких станах вікна вона зовсім не видно, тому вікно потрібно розгорнути ширше.

  • Розрахуємо вагу сторінок і вкажемо кількість ітерацій, чим більше, тим точніше результат, але це вимагатиме більше часу:

Після розрахунку бачимо таку картину:

Слід врахувати, що умовна вага не має жодного відношення до Google PageRank.

Практична користь від цієї програми в тому, що вона допоможе суттєво зберегти бюджет при купівлі “вічних” посилань та статей. Хитрі донори роблять жорстке перелінкування своїх сайтів, тому вага таких посилань передається дуже слабо. І ми отримаємо від такого сайту значно менший ефект, ніж очікувалося. Тому перед закупівлею посилань перевіряйте сайти-донори цією програмою.

SiteMapGenerator

Якщо файл robots.txt закриває сторінки та розділи для індексації роботами пошукових систем, то карта сайту навпаки – дозволяє встановити пріоритет індексації певних сторінок та розділів сайту. Карта сайту існує у двох варіантах: для людей – у HTML форматі та для ботів у XML.

  • Багато сучасних CMS типу WordPress здатні створити карту сайту за допомогою спеціальних плагінів.
  • Якщо сайт реалізований на CMS, яка не має власних засобів для створення карти сайту, то краще буде скористатися даним софтом.
  • Програма SiteMapGenerator буде особливо актуальною для сайтів з великою кількістю сторінок і складною структурою.

Функціонал програми:

  • вибір головної сторінки сайту;
  • Вилучення зайвих сторінок з карти сайту або навпаки – включення лише деяких;
  • Створення картки сайту у кількох форматах – GoogleSiteMap/XML, YahooMap/Text, Html, CSV
  • Перегляд robots.txt – у ньому має бути прописаний шлях до карти сайту
  • Перевірка некоректних URLна сайті
  • Багатопотоковість сканування сайту

Інтерфейс програми англійською мовою, проте вона дуже проста: все, що потрібно ввести адресу сайту (ExtractLinksFromSite), встановити максимальну кількість потоків (Max. SimultaneousConnection) і при необхідності прописати сторінки (головна StartPages, шаблони винятків ExcludePatterns або ті, які потрібно включити до карти Must-FollowPatterns).

StartPages: якщо головна сторінка не стандартна index.php, то першій колонці вказуємо її адресу.

ExcludePatternsі Must-FollowPatterns мають прості правила синтаксису

*seo/* – всі сторінки розділу seo

*seo* – адреси сторінок містятьseo.

Ось приклад генерації сайту без зазначення будь-яких параметрів:

У результаті ми отримаємо карту сайту в будь-якому з потрібних форматів:

Для успішного (нарощування посилальної маси сайту) використовуються як методи анкорного так і безанкорне просування (тобто з використанням у посиланнях анкорів або url сторінок, що просуваються).

Анкор (англ. якір) – це текст гіперпосилання, який видно відвідувачу сайту, на якому є це посилання і якщо воно цікаве, то користувач може перейти на наш сайт. Цей текст знаходиться між html-тегами і. Якщо на сторінку ведуть лише посилання з анкорами без особливого семантичного навантаження типу «тут», «тут», «ось», «там», «ще» і подібні до них природні анкори, то це не дуже добре. Справа в тому, що пошукові системи враховують текст анкору посилання та навколопосилальний текст при ранжируванні сайту за тим чи іншим запитом. Тобто правильно підібрані анкори допомагають досягти найбільшого ефекту від посилань, які ведуть наш сайт.

Вся сукупність анкорів посилань, що ведуть на сторінку називається анкор-лист, який:

  • складається пошуковими системами при врахуванні всіх посилань на сторінку;
  • повинен бути різноманітним, оскільки посилання з однаковими анкорами можуть склеїтися пошуковими системами, і тоді вони будуть передавати менше ваги;
  • рекомендується розбавляти додаванням до пошукових запитів прикметників, синонімів тощо;
  • чим більше потрібно посилань, тим різноманітнішими повинні бути їх анкори;
  • має бути читабельним та зрозумілим для людини;
  • не повинен бути схожим на автоматично згенерований спам.

Крім того, при безанкорному поступі навколопосилальний текст також потрапляє в анкор-лист.

Отже, якщо нам потрібно просунути десять сторінок сайту за п'ятьма конкурентними запитами і кожному запиту потрібно всього 20-30 посилань, то нам потрібно скласти 1000-1500 унікальних анкорів! На практиці ж завдання просування вимагають набагато більшого обсягу роботи.

Щоб полегшити цю нелегку працю, нам на допомогу приходить програма SEO Anchor Generator, яку ми використовуватимемо для автоматизації цієї роботи.

Синтаксис складання шаблонів генерації тексту такий:

(a|b|c|d) – у тексті буде одне із слів;

– усі слова у випадковому порядку, але тут потрібно ставити прогалини або після або перед словами, щоб вони не злилися або використовувати роздільник пробіл – [+ +a|b|c|d], кому – [+,+a|b|c |d] чи інший.

  • Підтримуються вкладені конструкції, що значно збільшує можливості програми.

Наприклад, така конструкція [+ – +[+, +a|b|c]|[+, +d|e|f]] дає 52 варіанти виразів.

Приклад анкора для інтернет магазину м'яких іграшок може бути таким:

(Купити|Замовити|Придбати) наших [+, +рожевих|пухнастих|м'яких] слонів (з дисконтом|зі знижкою), після видалення схожих дає 33 варіанти анкорів.

  • У програмі є майстер введення, який значно полегшує складання шаблону генерації.

У налаштуваннях програми є пост-обробка, яка допомагає виправити типові помилки, які зазвичай виникають при недбалому складанні шаблонів генерації тексту (проблеми великих літер на початку речення та зайвих або відсутніх прогалин).

  • Але для того, щоб ці правила спрацювали, не забудьте включити автокорекцію в опціях.

Підсумок

Таким чином ми бачимо, що кожен бажаючий займатися просуванням сайтів може починати освоювати безкоштовний SEO софт, який допоможе йому набути навичок пошукової оптимізації.

Однак освоєння цих навичок потребує чимало часу та зусиль.

Нам цікаво, а яким софтом ви користуєтеся? Чекаємо на ваші відповіді в коментарях.

При аналізі сайту щодо наявності помилок, а також при проведенні внутрішньої оптимізації, фахівцю може знадобитися ряд інструментів. У цій статті я опишу всі SEO програми (платні та безкоштовні), які використовую у своїй практиці, кілька слів скажу також про софт, якого поки що у мене немає, але обов'язково буде.

У Мережі існує безліч інструментів, здатних суттєво спростити роботу seo-фахівця. Звичайно, найбільш серйозний та багатофункціональний софт зазвичай коштує грошей, причому іноді суми досить великі, особливо якщо розробник – європейська чи американська компанія. Проте, якщо руки ростуть із правильного місця, багато що можна зробити і за допомогою безкоштовних програм. Саме на них я і буду наголошувати, так як SEO гуру навряд чи зайдуть почитати мій блог, а для сеошників-початківців програми по $100+ навряд чи підійдуть.

Найбільш вагомий мінус безкоштовного софту – його вузька спеціалізація. Тому доведеться поєднувати, дещо робити руками, загалом експериментувати.

SEO програми для аналізу

  1. - Безкоштовна програма для посторінкового аналізу сайту. Видає дуже багато корисної інформації на кожній сторінці сайту: коди відповідей, наявність атрибуту rel="canonical", дублі метатегів, кількість H1 заголовків, кількість внутрішніх сторінок та інша інформація. Ось приклад роботи програми:
  2. - Безкоштовна програма для експрес аналізу сайту. Треба відзначити, що цим софтом я давно перестав користуватися з огляду на те, що для швидкого аналізу можна використовувати онлайн-сервіси — мені так набагато зручніше, а для повного аналізу програма не дає достатньо даних. Однак багато оптимізаторів воліють використовувати десктопні програми. Що ж, дивіться самі, що вам більше до вподоби.

    Спойлер (натисніть, щоб показати/приховати)

  3. - Безкоштовна програма для пошуку битих та вихідних посилань. Цей софт настільки корисний і унікальний, що аналогів просто немає, наскільки мені відомо. Xenu's Link Sleuth англійською мовою, але ви можете використовувати я. Під спойлером нижче – скріншот програми під час роботи

    Спойлер (натисніть, щоб показати/приховати)

  4. - ще одна програма (платна) для посторінкового аналізу сайту. Відмінностей від Netpeak Spider чимало, функціонал програми величезний. Наприклад, з того, що використовую особисто я і чого немає в Netpeak: кількість H2 заголовків та їх довжина, кількість слів на сторінці, використання web-технологій (Flash, JS, HTML) та багато інших функцій. Відразу скажу, що програма виявиться марною для абсолютного новачка в SEO, проте для фахівця, який займається аналізами сайтів, вона — інструмент першої необхідності.

    Спойлер (натисніть, щоб показати/приховати)

  5. - Платна програма для аналізу внутрішньої перелінковки. Я використовую програму для перевірки коректності розподілу внутрішньої ваги, під час проведення аудитів чи внутрішньої оптимізації сайтів. Загалом у Лінкоскопі понад 110 інструментів, детальніше про них ви можете почитати на офіційному сайті.

    Спойлер (натисніть, щоб показати/приховати)


  6. - Чудова програма (платна) для SEO аналізу сайтів. Заточено програму під Google, тому результати видає відповідні. Однак, програма чудово підійде навіть для недосвідченого оптимізатора, тому що в ній вказуються явні помилки та докладні рекомендації щодо їх виправлення. Докладніше про Website Auditor можна прочитати в цій статті.

    Спойлер (натисніть, щоб показати/приховати)


  7. Програми для аналізу тексту

    На цьому поки що все, сподіваюся, щось з описаного вище допоможе вам у нелегкій роботі. Софт для аналізу та оптимізації, особливо якісний та функціональний – не таке вже й часте явище. У цьому огляді я постарався згадати лише ті SEO програми, які будуть корисними для оптимізаторів.

На просторах Інтернету можна зустріти величезну кількість різних програм для розкрутки та просування сайтів, підняття їх рейтингу, аналізу конкурентів тощо. Ця стаття є оглядом найбільш популярних програм цієї серії, що стане в нагоді початківцям вебмайстрам і блогерам.

Програма Yazzleявляє собою набір інструментів для ретельного аудиту сайту, моніторингу поточних позицій у пошукових системах, аналізу конкурентів, оцінки бюджету, що необхідно для просування твого сайту. Робота з Yazzle відрізняється комфортом, тому що дозволяє відразу отримати весь список необхідних запитів та детально оцінити зовнішні та внутрішні фактори кожного сайту. Семантичний аналіз анкорлістів та внутрішніх факторів надає інформацію, достатню для прийняття вірних рішень. Цей модуль можна завантажити з панелі веб-майстра та індексів. Зручне графічне представлення даних у софті повідомляє фахівця наочно, у якому напрямі потрібно рухатися для того, щоб потрапити в рейтингові позиції. Ціна складає близько 3000 рублів. Програма дозволяють глобально оцінити результати роботи та запланувати подальший хід дій для просування сайту.

Site – auditor– це безкоштовний програмний комплекс, призначений для проведення аналізу зовнішніх та внутрішніх факторів ранжування веб-сторінок, збору статистичних даних та ведення історії сайту. На перший погляд, Site – auditor виглядає як аналізатор – Рамблер, Яндекс, Гугл. Аудитор дуже простий у використанні, має мінімальні налаштування, не потребує встановлення. Є ще один дуже привабливий момент – у цій програмі немає необхідності введення докучливої ​​капчі, це пов'язано з її здатністю обробляти завдання пакетно у строгій послідовності. Тобто, при виборі одного сайту для аналізу, в одиницю часу можна аналізувати лише його як за внутрішніми факторами, так і на предмет позицій. Певна незручність під час роботи викликає той факт, що в аудиторі не передбачені форми для вказівки списку серверів, а є можливість використання лише проксі сервера, вказаного у стандартних налаштуваннях браузера Explorer. Крім того, програма не має можливості регулювати глибину пошуку та відстежує лише близько 100 позицій, заданих за умовчанням. Тим не менш, для просування сайту ця програма незамінна.

Ще одна безкоштовна програма Advego Plagiatusпризначена для аналізу на унікальність сторінок контенту. Вона перевіряє текст і показує відсоток унікальності, при цьому виділяє іншим кольором унікальні фрагменти тексту, які підлягають зміні. Крім того, виводиться список сайтів, де було знайдено подібний текст. Advego Plagiatus має інтуїтивний інтерфейс, що дає змогу ефективно знаходити в Інтернеті часткові або повні копії текстових документів. Ця програма корисна для широкого кола користувачів: веб-майстрів, замовників тексту, авторів, рерайтерів, копірайтерів, журналістів, школярів, студентів, викладачів.

– це новий софт для ефективного парсингу та обробки слів. Він має такий набір основних інструментів:

  • статистика LiveInternet сортує за популярністю запити у пошукових системах;
  • парсинг Wordstat сервісної служби Yandex;
  • статистика Web Effector повідомляє про бюджет, терміни просування, регіональність, про СРС запити;
  • спеціальний сервіс дозволяє знаходити цільові сторінки за запитами в Google та Яндекс.

Дане програмне забезпечення має підтримку ручної обробки капчі Яндекса та дозволяє працювати через проксі-сервери. Програма дозволяє автоматично скорочувати час таймууту на кількість доданих проксі-серверів, в результаті обробка даних відбувається на високій швидкості. Софт має унікальну опцію «множник швидкості», яка є відмінною альтернативою великих потоків. Незамінна для вибору семантичного ядра сайту.

Я обіцяв розповісти про платні та безкоштовні SEO програми. Так от, сьогодні я саме це й зроблю. У цій статті представляю вам найпопулярніший SEO софт, який використовує більшість оптимізаторів.

Безкоштовні SEO програми

Безкоштовних програм не так багато, як хотілося б, але навіть вони бувають просто незамінними в деяких випадках.

- Програма, що дозволяє зібрати семантичне ядро. У функціонал програми входить парсинг Яндекс Wordstat (збір базової, загальної та точної частотності), парсинг пошукових підказок, визначення сезонності, визначення конкуренції Яндекс та Google, визначення релевантних сторінок, і все це можна робити у три потоки.

До того, як я придбав Кей Колектор, семантичні ядра я збирав за допомогою Словоєба. Тому рекомендую як чудову програму. До речі, повний огляд цієї SEO програми я робив, рекомендую ознайомитися, там ви знайдете всю інформацію з налаштування та використання Словоеба.

- Програма збору конкурентів в Яндекс і Google за ключовими. Допомагає, коли потрібно швидко скласти title для сторінки.

- Програма пошуку на сайті. Програма дозволяє визначити абсолютно всі побиті посилання на сайті. Особисто я цією програмою не користуюсь, тому що всі мої проекти винятково на WordPress і я використовую плагін Broken Link Checker. Але якщо ту вас будь-яка інша CMS, то цей SEO софт може стати просто незамінним.

- Безкоштовна програма експрес аудиту. Якщо вам потрібен глибокий аудит, то програма навряд чи допоможе, але якщо необхідно терміново отримати основні дані сайту, то відмінний софт. Мені подобається Site-Auditor тим, що він постійно оновлюється та доопрацьовується. Зараз до речі йде тестування третьої редакції програми.

Цей софт допомагає збирати позиції сайту в Яндекс, Google mail.

– парсер ключових слів Яндекс. Директи. Хороше доповнення до процесу збирання семантичного ядра. Магадана має як платну, так і безкоштовну версію. Але різниця між ними невелика.

- SEO програма для швидкого підбору ключових слів за вихідним словом. Ключові слова беруться із величезної бази, яка регулярно поповнюється. На даний момент база налічує 1644 млрд. ключових слів.

Платні SEO програми

Платних SEO програм набагато більше, зрозуміло і функціонал їх більший, тому можна з упевненістю сказати що програма коштує своїх грошей. Нижче можна побачити список найпопулярніших платних SEO програм.

– мабуть найкраща SEO програма для збирання семантичного ядра. Вартість ліцензії - 1700 рублів, вічна ліцензія. Я вже більше року користуюсь цією програмою і дуже задоволений.

Amazing Keywords – програма створення вибірок ключових слів. Програма платна, але коштує копійки (на момент написання статті – 400 грн.). Не буду докладно описувати що з себе представляє цей софт, краще подивіться це на відео, яке записав Ігор Бакалов.

– потужний комбайн для оптимізації, аналізу та просування сайту. Програма має у своєму арсеналі 27 інструментів:

Перед покупкою програми можна завантажити її обмежену версію безкоштовно, щоб ознайомитися з функціоналом і випробувати можливості софту.

— програма для оптимізації та просування сайту. Серед основних можливостей можна виділити аналіз сайту, перевірка партнерських посилань, визначення позицій та аналіз посилань.

– потужний комбайн для отримання посилань на свій сайт, який не має аналогів. Якщо говорити відверто, це дуже хороший спамер. Xrumer обходячи всілякі захисту та капчі розміщує необхідні посилання з анкором у соціальних мережах, на форумах, у блогах та гостьових книгах, у каталогах посилань та на дошках оголошень.

- Програма для класстеризації (угруповання) семантичного ядра. Доступна ДЕМО версія для тестування перед покупкою.

- Програма для вивчення індексації сайту. ComparseR сканує сторінки сайту та видачу пошукових систем на цьому сайті, після чого порівнює дані. У разі поганої індексації програма вкаже на основні помилки, які впливають на індексацію, такі як внутрішні редиректи, дублі title, заборона до індексації тощо.

- Чудова програма для внутрішньої перелінковки. Page Weight наочно показує розподіл ваги на сайті, керуючи яким можна просунути певні сторінки.

– SEO програма швидкої перевірки позицій, кластеризації та підбору ключових слів. Доступна двотижнева тестова версія. - Відмінний софт технічного аудиту, який порекомендує будь-який SEO спеціаліст. Існує безкоштовна версія з обмеженим функціоналом. Мінус програми – вона англійською.

— ще одна програма для створення грамотної внутрішньої перелінковки. Але оцінка ваги посилань та сторінок на сайті не єдина можливість цього софту. Усього програма має більше 110 функцій, ознайомитися з якими можете за посиланням.

– програма для пошуку та оцінки зворотних посилань. Програма підійде для тих, хто активно закуповує тимчасові та вічні посилання.