Сразу предупреждаю, что единого рецепта нет и к хорошему результату можно придти по разным дорожкам. Просто так исторически сложилось, что я делаю это именно так, и с помощью этих инструментов.
На данном этапе ваша задача — это вспомнить, найти, придумать все фразы, которые относятся к тематике сайта, раздела, товара или статьи. Всё зависит от того для чего вы создаёте семантическое ядро (СЯ). В качестве примера я буду собирать ключевые запросы для этой же статьи. Попытаюсь убить двух зайцев. Принципиально задачи ничем не отличаются, будь то сбор ключевых фраз для сайта или статьи. Для сайта их будет просто больше и фразы будут более разноплановые.
Перед тем, как приступить к описанию процесса создания семантического ядра, хочу отвлечься и подробнее рассказать о структуре поисковых запросов.
Для примера я возьму запрос «семантическое ядро». Вот так этот запрос видит поисковая система:
Напоминаю, что нас интересуют только высокочастотные (ВЧ) запросы. На следующем шаге мы будем раскладывать эти запросы на составляющие и найдём все среднечастотные (СЧ) и низкочастотные (НЧ) запросы, которые являются частью ВЧ.
Но тут есть обратная сторона медали. Представьте, если мы начнём парсить запрос «ядро». Помимо целевых фраз, мы соберём кучу мусора про бесплатные фильмы, орехи и т.д. Это приведёт к тысячам лишних запросов, которые придётся чистить в ручном режиме. Поэтому нужно оставлять те запросы, которые располагаются максимально высоко в этой иерархии, но не будут тянуть за собой кучу мусора (но тут есть риск пропустить что-то важное).
После того, как вы изрядно пораскинули мозгами и придумали фразы, которые так или иначе относятся к вашей теме, стоит подглядеть, что же есть у конкурентов.
Получаем подобный результат:
Анализ страниц на плотность ключевых слов
Соберите все нужные слова в один файл и переходите к следующему шагу.
Сейчас необходимо все найденные и придуманные слова пропустить через wordstat.yandex.ru и внимательно проанализировать правую колонку. Правая колонка покажет, что ещё искали люди искавшие запрос, который вы ввели.
Анализ правой колонки Яндекс Вордстат
Вот запросы, которые я отобрал для парсинга:
Если вы занимаетесь созданием семантического ядра для сайта, то обратите внимание на структуру сайтов лидеров рынка. Априори эти сайты идеально оптимизированы, значит вам нужно применить здоровый плагиат и скопировать оттуда ключи из тэгов <title>, <h1>, <h2>, <keywords>, <strong>.
На данном этапе нашей целью будет собрать как можно больше ключевых фраз, не обращая внимания на их частотность.
Есть два хороших сервиса для анализа ключевых слов конкурентов: АДВСЁ и SpyWords. Оба сервиса платные и позволяют анализировать ни только SEO, но и контекстную рекламную компанию.
Самый бюджетный вариант — это АДВСЁ по контекстной рекламе. Стоимость зависит от количества анализируемых доменов. 1 домен — 20 рублей.
На первом шаге мы вручную собирали высокочастотные фразы, которые относятся к нашей тематике. Результатом проделанной работы стал документ с ключевиками, которые сейчас нужно распарсить (разложить на составляющие).
Парсить, собирать частотность и анализировать конкурентность запросов мы будем с помощью программы Key Collector.
Перед тем как начинать работу с программой не забудьте настроить её. О том, как это правильно сделать вы можете прочитать в стандартном мануале на официальном сайте программы.
Нажмите на иконку изображающую красную гистограмму. Во всплывающее окно вставьте перечень фраз, который мы собрали на первом шаге и нажмите «Начать сбор».
Сбор запросов из поисковых подсказок
Нажмите на иконку с тремя цветными точками. Во всплывающее окно вставьте перечень фраз, который мы собрали на первом шаге и нажмите «Начать сбор». Чтобы собрать больше фраз, можете поставить галочку «С подбором окончаний» и писать слова без окончаний. Тогда программа сама будет перебирать все возможные варианты для вашей фразы.
Внимание: процесс значительно затянется.
Следующим шагом при создании семантического ядра нужно узнать на сколько часто эти запросы вводят пользователи в поисковую строку.
Всего у меня получилось 2703 поисковых запроса.
Это, без сомнения, самый нудный и долгий процесс при создании семантического ядра. От части он поддаётся автоматизации, но ручной работы всё равно остаётся достаточно.
Первым делом нужно удалить все НЧ фразы, частота запросов которых вас точно не устраивает. Здесь нет конкретных рекомендаций, всё зависит от тематики и общего количества запросов, которые вам удалось собрать. Если вы собираете семантическое ядро для всего сайта, то опускайте порог ниже (чем больше, тем лучше), так как вы можете распределить ключи по всем страницам. Если вы собираете ядро для всего одной серии статей, то порог можно поднять.
В моём случае запросы геонезависимые. Не важно из какой страны или её региона введён запрос, статья будет полезна всем. Но если у вас, к примеру, региональный интернет магазин заколок, который обслуживает только Омск, то запрос «Купить заколку в Москве» явно лишний. Специально для этих целей у меня собраны в одном файле все города России. Вам нужно:
Собирая семантическое ядро для определённых тематик, вы можете вместе с полезным материалом собрать кучу дурно пахнущих фраз. Таких фраз, по которым вам, ни в коем случае, не захочется отображаться в поиске. Специально для таких случаев у меня есть файл, который избавит вас от рутинной работы. Алгоритм применения такой же, как и в вышестоящем пункте.
Если у вас остались силы, и вы готовы продолжать сидеть с красными глазами перед экраном монитора, чтобы узнать, как составить семантическое ядро сайта, то спешу вас расстроить. Осталось самый долгий и нудный этап.
Внимательно просмотрите оставшиеся ключевые фразы и беспощадно удалите те, которые никакого отношения не имеют к сайту или странице.
Как не сложно догадаться, чем более высокочастотный запрос, тем больше конкуренция, но есть исключения. Наша задача на данном этапе — найти эти исключения, у которых и частота будет высокая, а конкуренция низкая. В этом нам поможет Key Collector.
Переходим в настройки программы и меняем формулу на следующие:
KEI 1: ( KEI_YandexMainPagesCount ) + ( KEI_YandexTitlesCount )
KEI 2: ( KEI_GoogleMainPagesCount ) + ( KEI_GoogleTitlesCount )
Идею этой формулы описывал в своей статье пользователь Kareg с форума webmasters.ru. Суть в том, что KEI является суммой страниц с точным вхождением ключа в заголовок и главных страниц в выдаче. KEI 1 — для Яндекса, KEI 2 — для Google.
Для начала вам необходимо собрать всю необходимую статистику для расчёта индекса конкуренции. Затем нажать на кнопку «Рассчитать KEI по имеющимся данным». Чем меньше данный показатель, тем меньше конкуренция.
Вам осталось выбрать такие запросы, у которых большая частотность и при этом маленький KEI. Это и будет предпоследний этап создания семантического ядра. После останется лишь распределить эти запросы по страницам сайта. О том как правильно это сделать, я расскажу в следующей статье, на примере интернет-магазина.