Сбор слов key collector. Стоп-слова для Кей Коллектора – самая полная база! Собирать информацию о конкурентах

Всем-всем привет!

Как только Вы создали аккаунт, можете переходить к инструкции ниже:

Отлично! Key Collector успешно настроен, а значит можно переходить непосредственно к составлению семантического ядра.

Составление семантического ядра в Key Collector

Перед тем, как начать сбор ключевых фраз для Яндекс.Директ, рекомендую почитать , в нем Вы найдете массу полезной информации по поводу ключевых фраз (только для новичков). Прочитали? Посмотрите еще пример сбора семантического ядра для ремонта бытовой техники:

Тогда Вам не составит труда собрать маски ключевых фраз, которые очень нужны для парсинга через Key Collector.

  1. В обязательном порядке укажите регион сбора ключевых слов:
  2. Нажмите на кнопку “Пакетный сбор слов из левой колонки Yandex.Wordstat”:
  3. Впишите маски ключевых фраз и распределите по группам:Такой получится результат. Нажмите “Начать сбор”:Делается это для удобства обработки ключевых фраз. Так запросы не будут смешаны в одной группе и Вам будет гораздо проще обрабатывать их;
  4. Дождитесь окончания сбора ключевых фраз. Как только процесс будет закончен, можете собрать точную частотность запросов, а также узнать примерную стоимость клика по объявлению, примерное количество показов объявления, примерный бюджет и количество конкурентов по определенному запросу. Все это можно узнать с помощью одной единственной кнопочки “Сбор статистики Yandex.Direct” (ее мы добавили в панель быстрого доступа):
    Поставьте все галочки в соответствии со скриншотом выше и нажмите “Получить данные”;
  5. Дождитесь окончания процесса и просмотрите результаты. Для того, чтобы это было удобно делать, нажмите на кнопку автонастройки колонки, которая оставляет видимыми только те колонки, в которых присутствуют данные:
    Те статистические данные, которые сейчас у нас собирались, нам нужны для того, чтобы проанализировать конкурентную ситуацию по каждой ключевой фразе и прикинуть примерные затраты на рекламу по ним;
  6. Далее воспользуемся таким крутейшим и удобнейшим инструментом Key Collector’а, как “Анализ групп”. Мы его добавили в панель быстрого доступа, поэтому просто перейдите к нему оттуда:
    Key Collector сгруппирует все ключевые фразы по словам и нам будет удобно обрабатывать каждую группу запросов. Ваша задача: просмотрите весь список групп; найдите группы запросов, содержащие не целевые слова, то есть минус-слова и добавьте их в соответствующий список; отметьте эти группы запросов, чтобы потом их удалить. Добавить слово в список можно нажав на маленькую синюю кнопку:Затем появиться небольшое окошко, где нужно выбрать список минус-слов (список 1(-)) и нажать на кнопку “Добавить в стоп-слова”:Таким образом прорабатываете весь список. Не забывайте отмечать группы с нецелевыми словами. Ключевые фразы автоматически отмечаются и в таблице поисковых запросов;
  7. Затем необходимо удалить отмеченные нецелевые фразы в таблице поисковых запросов. Делается это нажатием кнопки “Удалить фразы”:
  8. Продолжаем обрабатывать фразы. Как Вы помните, в Яндекс Директ в начале 2017 года появился статус “Мало показов” (с ним мы разбирались ), и чтобы избежать этого статуса необходимо выделить запросы с низкой частотностью (НЧ-запросы) в отдельную группу. Для начала применяем фильтр к столбцу “Базовая частотность”:
    Параметры фильтра: Базовая частотность , меньше или равно 10. Эти параметры фильтра я выставил исходя из региона показов – Ижевск:
    Затем отмечаем все отфильтрованные фразы:
  9. Создаем подгруппу в группе, где происходит работа в данный момент простым сочетанием клавиш CTRL+Shift+T:Затем переносим отфильтрованные фразы из группы “Купить iphone 6” в группу “Мало показов”. Делаем это через перенос фраз в другую группу:
    Затем указываем параметры переноса как на скриншоте ниже (Выполнить-перенос-отмеченных):
    Снимаем фильтр со столбца “Базовая частотность”:

Точно таким вот образом обрабатываете остальные группы. Способ, конечно, может показаться на первый взгляд муторным, однако при определенной сноровке можно быстренько-быстренько составить семантическое ядро для Яндекс Директ и уже создавать кампании в Excel, а затем и залить их. На обработку семантического ядра таким способом у меня уходит примерно 2 часа, но зависит это исключительно от объемов работы.

Вот Вам еще одно видео, но уже пример сбора минус-слов:

Экспорт ключевых фраз в Excel

Нам осталось экспортировать ключевые фразы в файл для работы с Excel. Key Collector предлагает два формата экспортируемых файлов: csv и xlsx. Гораздо предпочтительнее второй вариант, так как работать в нем гораздо удобнее и привычнее лично для меня. Указать формат файла можно все в тех же настройках программы, во вкладке “Экспорт”:

Экспортировать ключевые фразы можно, нажав на зеленый значок в панели быстрого доступа:

Экспортируется каждая группа по отдельности, то есть отдельная группа – это отдельный xlsx файл. Можно, конечно, засунуть все группы запросов в один файл с помощью инструмента “Мульти-группы”, но потом будет крайне не удобно работать с этими файлами, особенно если групп получилось много.

Далее нужно экспортировать минус-слова. Для этого нужно зайти в “Стоп-слова” и скопировать минус-слова в буфер обмена, чтобы потом вставить их в Excel:

Вот так я работаю с Key Collector’ом, чему научил и Вас. Искренне желаю, что данный урок поможет Вам в освоении этого замечательного инструмента и Ваше семантическое ядро принесет исключительно целевой трафик и много-много продаж.

До скорых встреч, друзья!

Как собрать минус-слова для Яндекс Директ, а также самую чистую и продающую семантику для ваших рекламных кампаний.

Существует 2 подхода к сбору минус-слов и фраз:

Экспресс-метод

Многие директологи предлагают методы подбора за 20 минут, 10 или еще меньше.

Смысл в том, что вы собираете выдачу с вордстата, несете в эксель или аналог и вытаскиваете оттуда ключи и релевантные доп.слова, в итоге у вас остается список минусов.

Чем этот способ плох и почему я вас буду учить другому методу:

— Ограниченность.

Wordstat дает возможность собрать запросы только первых 40 страниц. Даже если не ручками каждый запрос собирать, а при помощи какого-либо плагина, будешь сидеть как дурак и листать сорок страниц.

— Отсутствие возможности собрать полный список стоп-слов.

Вследствие ограничений вордстата вы соберете приличный список, но не полный. Особенно это касается широких семантик наподобие квартир в Москве. Там запросы последней страницы идут с частотностью 300 запросов. А уходить надо в 30 и меньше, ибо если покажитесь по нецелевым запросам, пусть даже НЧ – сольете много денег и столько же слез, ниша дорогая.

К тому же во многих нишах важна мобильная выдача, а Яндекс вечно с гео в телефоне мудрит – постоянно мне вместо Саратова определяет Нижний Новгород. Чтобы выдача была релевантной по гео, вам придется включить расширенный географический таргетинг, но при этот заминусовать все города, в которых вы не хотите показываться.

Экспресс-метод вам такой возможности не даст, самим надо дописывать.

— И САМОЕ ГЛАВНОЕ: при помощи моей методы вы кроме списка минусов соберете ВСЕ целевые ключевые слова!

Сбор минус-слов в Кей Коллекторе

Гораздо проще и удобнее парсить как семантику, так и «плохие» слова к ней в специальных сервисах. Можно воспользоваться бесплатным Словоебом, Магадан парсером (есть фри версия) и т.д., программ не мало.

Я расскажу, как отфильтровать стоп-слова в Key Collector и заодно получить чистую конверсионную семантику для объявлений.

Начинается всё с того, что вы собираете основные маски (направления для парсинга) с вордстата или оценки бюджета рекламной кампании , затем перемножаете их и несете в Кей Коллектор.

Например, стоит задача почистить семантику по продаже батутов в Москве. Собрали все запросы, видим картину:

1. Идем в окошко стоп-слов.

2. В нем выбираем тип поиска вхождений: НЕзависимый от словоформы стоп-слова. Таким образом мы выхватим все варианты одного слова (аренда, аренду, аренде).

3. Нажимаем на зеленый плюсик.

4. В раскрывающемся окне прописываем вредные слова (через запятую, можно с новой строки).

Какие минус-слова сюда писать?

Для начала самые очевидные – те, что показывают намерение не купить, а, к примеру, посмотреть обзоры или справиться своими силами: как, что, лучше, бесплатно, своими, руками, какой, ремонт, фото, видео. Если вы продаете новый товар и не используете доски объявлений, добавьте «авито». И т.д.

Тут необходимо вникнуть в нишу, понять особенности процессов продаж и мышления клиента при поиске. Что важно при выборе, какие характеристики, условия покупки, доставки, гарантии или сервиса.

5. Нажимаем кнопку «Отметить фразы в таблице».

6. 15-20 самых очевидных слов дали мне 396 мусорных запросов. Несем их в корзину.

Выбираем «Перенос фраз в другую группу», в раскрывающемся окне жмем «Корзина» и далее «Ок». Любуемся результатом (обведено зеленым):

НО! С этими запросами мы еще не закончили. Идем в корзину и просматриваем запросы на наличие коммерческих. Видим такой ключ «купить батут цена фото»:

Жмем по нему Ctrl+клик, программа перекидывает нас в Яндекс с выдачей по этому запросу. Листаем, переходим по ссылкам и видим, что ключ коммерческий:

Перетаскиваем обратно.

7. Над списком в поле «быстрый фильтр» пишем слово «цена» и анализируем:

Аналогично фильтруете по остальным продающим словам (купить, заказать, город, цены) и забираете обратно нужные ключи. В этой нише люди ищут батуты без сетки, и они тоже оказались в корзине, унесу их в рабочую группу.

8. Следующий шаг – удаление неполных ключей.

Это такие запросы, которые по базовой частоте имеют приличные цифры, а по закавыченной (когда фразы включают словоформы, но не включают в себя другие слова) частоте – нули-единички.

Иными словами, именно в таком виде их никто не ищет и они могут иметь вхождения в запросы с более широкой семантикой или быть попросту информационными. Не пишут люди: «батут с сеткой см» — наверняка имеется в виду батут определенного диаметра. А это уже инфоключ.

Порядок действий : жмем на поле «Частота “ ” » и тем самым сортируем частоты с кавычками по убыванию. Листаем до частоты 0 и просматриваем. Видим следующее:

Удаляем всё подобное, иначе без денег останемся.

9. Чистка городов.

Сергей Арсентьев

KeyCollector (Кей Коллектор): профессиональное составление семантического ядра.

Семантическое ядро - основа успешного продвижения любого интернет-проекта. Поэтому важно уделить этому этапу максимально пристальное внимание. Для этого можно воспользоваться наиболее популярной программой для сбора ключевых поисковых запросов - KeyCollector.

КейКоллектор - это платная программа , но стоит каждого потраченного на ее приобретение доллара.

Это действительно отличный и мощный парсер самых разных показателей, начиная от ключевых слов, ставок в Яндекс.Директ и Google.Adwords, проверки геозависимости и корректности словоформ, уровня конкуренции и заканчивая расширенным анализом данных ведущих SEO-агрегаторов.

В одном статье просто невозможно описать все возможности программы, поэтому сейчас я остановлюсь на важнейшей из них – профессиональное составление семантического ядра.

Методов подбора, фильтрации и группировки запросов может быть довольно много, но я опишу процесс подбора ключей с помощью Кей Коллектора именно так, как я «наловчился» делать с минимальными затратами времени и с достижением необходимого результата. Обычно на подбор ключей для одной продвигаемой темы у меня уходит около 10-15 минут. Итак, приступим.

Сразу же при открытии Key Collector предложит создать новый проект или открыть старый. В одном проекте целесообразно подбирать и хранить ключевые запросы для всего сайта, если он относительно небольшой, например, до 1000 страниц. Поэтому у меня названием проект обычно является название сайта.

Так что создаем новый проект, сохраняем его под любым именем и первым делом указываем адрес сайта вверху страницы в поле URL.

Далее указываем регион, где нужно собирать запросы. Для этого кликаем внизу программы на каждую кнопку Регионы (всего их 4) и выбираем в появившемся окне нужный регион. Первая кнопка будет нам нужна для сбора статистики и словоформ из Яндекс.Вордстат, вторая – для получения частотностей из Яндекс.Директа, третья – для анализа уровня конкурентности и последняя для сбора статистики из Google.

Основные настройки.

Теперь нужно настроить съем статистики с Яндекс. Он и по умолчанию настроен, но нужно внести небольшие изменения в зависимости от конкретной задачи по составлению семантического ядра.

Во-первых, укажите нижнюю границу частотностей для добавляемых фраз. Это делается в пункте «Добавлять в таблицу фразы с частотностями от». Если ваша цель собрать тысячи низкочастотных запросов – ставьте примерный диапазон 5-50 . Если нужно собирать высокочастотные запросы, то ставьте нижнюю границу частотностей от 50 . Во всех остальных случаях подойдет параметр по умолчанию – от 10 .

Имеет смысл поставить флажок «Автоматически записывать 0». В этом случае при сборе некоторых низкочастотных запросов не будет пустых результатов.

Вы наверное обратили внимание, что глубину парсинга мы оставили равной 0. Нет смысла при сборе обычных региональных запросов использовать большую глубину, так как запросов обычно меньше, чем 40 страниц, которые установлены по умолчанию. Глубину 1 имеет смысл ставить только если стоит задача собрать максимум релевантных ключей по очень высокочастотным запросам и при этом обязательно нужно указать приличное значение, например, 100 в пункте «Не добавлять фразы для глубинного исследования с базовой частотностью равной или ниже, чем».

Я обычно немного повышаю задержки между запросами. При значениях 8000-15000 у меня каптча без всяких прокси-серверов ни разу не появлялась, а скорость работы более чем приемлемая.

Но если каптча будет выскакивать слишком часто, то самый разумный выбор, конечно, использовать прокси-серверы, вот тут есть прокси специально для Keycollector https://proxy-sale.com

Остается только открыть в этих же настройках вкладку Yandex.Direct и добавить 5-6 специально созданных фейковых аккаунтов в виде адрес:пароль.

Программа настроена и готова к сбору ключевых слов.

Сбор ключевых фраз.

Лично мне наиболее удобно собирать ключевые слова для определенной страницы . Хотя некоторые SEO-оптимизаторы предпочитают сначала собрать тысячи фраз, а затем раскидать их по страницам с помощью фильтров.

Я в данной статье рассмотрю именно первый вариант, так как он более простой и, на мой взгляд, более правильный и предпочтительный при составлении ядра для продвижения обычных бизнес-сайтов или того же блога.

Кликаем на иконку сбора статистики Яндекс.Вордстат и вводим список ключей, которые подходят для продвигаемой страницы или раздела сайта. Тут нужно немного проявить фантазию и придумать всевозможные слова, которые могут отражать суть вашей страницы и по которым потенциальные посетители могут искать продвигаемые сайт в поиске.

Если с фантазией туго, просто вручную найдите примеры подобных поисковых запросов в том же Яндексе, .

Конечно, можно собрать подсказки с помощью этой же программы KeyCollector, но при составлении семантического ядра для конкретного раздела или страницы обычно это излишне и быстрее просто вбить несколько общих слов, обычно их немного, всего 5-10 для каждой продвигаемой страницы.

Заботиться об окончаниях или словоформах не нужно, программа найдет все варианты – просто вбивайте максимально общие, но подходящие по смыслу и исключающие другие трактования слова.

Для статьи по обзору бирж вечных ссылок я изначально использовал вот такие слова:

Если бы я использовал только слово «биржа», то программа бы выдала много мусора, который не подходит по содержанию к моей статье, например, про акции, биржевые спекуляции, биржи труда и т.п. А по запросу «биржа ссылок» были найдены самые разные сочетания, при этом хорошо подходящие для моей страницы, в том числе, «лучшая биржа ссылок», «биржи вечных ссылок» и т.п.

В то же время, общее слово «miralinks» лучше всего использовать одно, чтобы найти максимально большое количество вариантов запросов с этим словом: ведь его набирают только те, кто в принципе интересуется именно этой темой и никакой другой.

Отсеиваем лишнее.

После сбора ключевых слов с помощью программы КейКоллектор на текущей вкладке появится список из всех найденных в поисковой статистике фраз, соответствующих настроенным параметрам.

Среди них есть два типа ключей, которые не подойдут для продвижения:

  • Ключи, с небольшим количеством прямых вхождений.
  • Ключи, содержащие минус-слова.

Ключи с небольшим количеством прямых вхождений.

Я уже писал ранее что это такое, сейчас лишь немного повторюсь. Изначально программа собирает ключевые запросы с базовой частотностью . Это означает, что выдаваемое количество того или иного запроса в месяц будет включать в себя все словоформы с этим запросом.

Например, запрос «биржа покупки ссылок» = 55 показов в месяц. Но в число этих показов будет входить много вариаций этого запроса, например, «отзывы о бирже покупки ссылок» или «sape биржа покупки ссылок» и т.п.
Для продвижения сайта нет возможности использовать сразу все эти варианты, ведь ключевые запросы нужно будет прописать в метатегах, которые очень невелики по объемам, добваить в заголовки и подзаголовки страниц, которые также не резиновый и без переспама с нормальной плотностью вписать в текст.

Поэтому логично выбрать наиболее часто встречающиеся запросы и оптимизировать страницу именно под них, чтобы на продвигаемый сайт заходило как можно больше человек. А сколько было показов именно «биржа покупки ссылок» без всяких дополнений и вариаций? Для этого нужно собрать данные с так называемой частотностью «!».

Приступаем.
Кликаем на иконку Директа, проверяем установку флажка около “!слово” и нажимаем «Получить данные».

Как вы видите, количество прямых запросов ключа «биржа покупки ссылок» совсем невелико – всего 3 (!) запроса в месяц, вместо 55. Значит оптимизировать страницу под этот запрос лично я не вижу смысла.

Поэтому важно отсетить все запросы, которые имеют мало прямых точных вхождений в поиске, например, менее 5. Чтобы сделать это быстро, просто отсортируем все собранные ключи по точной частотности «!».

Затем выделим строки, которые содержат слова с недостаточной частотностью и удалим их.
10 секунд, и список из сотен слов обычно сокращается в 3-5 раз. Теперь имеет смысл отбросить оставшиеся нерелевантные ключи.

Ключи с минус-словами.

Что это такое? Это поисковый запрос, по которому ищут не продвигаемую страницу и очевидно не потенциальные клиенты.
Например, для магазина по продаже пылесосов такими нерелевантными запросами могут быть ключи со словами «инструкция», «отзывы»,
То есть запрос «инструкция к пылесосу самсунг» - вряд ли будет полезен для владельца рядового интернет-магазина, ведь даже если по нему придет много людей, то максимум что они сделают – скачают эту инструкцию, а вовсе не купят новый пылесос.

В моем случае имел смысл удалить ключи со словами «скрипт», «www» и т.п.

Приступаем.
Кликаем на кнопку «Стоп-слова». В появившемся окне вводим минус-слова, убеждаемся что внизу тип поиска вхождений стоит «Независимый от словоформы стоп-слова». Это нужно, чтобы не писать каждое минус-слово в точном соответствии, а использовать более общие минус-слова.
В этом случае при использовании, например, минус-слова «инструкц» будут удалены поисковые запросы «пылесосы инструкция», «скачать инструкции к пылесосам» и т.п., то есть запросы с любой словоформой.

Жмем на «Отметить в таблице» и в результате все ключевые запросы, содержащие минус-слова, становятся отмеченными флажками.

Теперь остается только удалить их.
Открывайте вверху вкладку «Данные», выбирайте «Удалить отмеченные фразы» и все – теперь вы имеете список ключей без посторонних запросов.

Определяем уровень конкуренции.

Отличной возможность программы KeyCollector является парсинг данных о количестве найденных проиндексированных страниц по каждому поисковому запросу, число сайтов в ТОП-10, которые содержат эту ключевую фразу в заголовке страницы Title, а также сколько страниц из первой десятке по этим запросам являются главными страницами.

Понятно, что чем больше проиндексированных страниц, оптимизированных заголовков и главных страниц в выдаче, тем сложнее с ними будет конкурировать.

Однако очень часто бывает ситуация, когда хорошие высокочастотные запросы имеют сравнительно небольшой уровень конкуренции. Поэтому очень важно проанализировать все собранные ключевые запросы на уровень конкуренции для того, чтобы выбрать и продвигаться по самым выгодным и еще незанятым ключам.

Для этого кликаем на иконку «KEI» и выбираем «Получить данные для ПС Яндекс».
Можно, конечно, уточнять уровень конкуренции и в других поисковых системах, это зависит от задания на продвижение, но в большинстве случаев Яндекса хватает, чтобы получить объективную картину сложности продвижения того или иного запроса.

Конечно, этот уровень определения конкуренции несовершенен. Было бы просто идеально, чтобы программа умела также парсить по каждому запросу:

  • Средний тИЦ и PR сайтов в ТОП-10.
  • Средний объем страниц.
  • Среднее количество внешних ссылок на конкурента и т.п.

В этом случае результат был бы точнее.
Но как показывает практика даже такого «беглого» анализа конкуренции достаточно для того, чтобы успешно находить выгодные ключи и быстро по ним продвигаться, так как многие оптимизаторы его не проводят вовсе и в итоге многие сайты продвигаются по сложным конкурентным запросам, хотя рядом «лежат» запросы с не меньшей частотой и с полным отсутствием оптимизированных конкурентов.

Начал писать эту статью довольно давно, но перед самой публикацией оказалось, что меня опередили соратники по профессии и выложили практически идентичный материал.

Поначалу я решил, что публиковать свою статью не буду, так как тему и без того прекрасно осветили более опытные коллеги. Михаил Шакин рассказал о 9-ти способах чистки запросов в KC , а Игорь Бакалов отснял видео об анализе неявных дублей . Однако, спустя какое-то время, взвесив все за и против, пришел к выводу, что возможно моя статья имеет право на жизнь и кому-то может пригодиться – не судите строго.

Если вам необходимо отфильтровать большую базу ключевых слов, состоящую из 200к или 2 миллионов запросов, то эта статья может вам помочь. Если же вы работаете с малыми семантическими ядрами, то скорее всего, статья не будет для вас особо полезной.

Рассматривать фильтрацию большого семантического ядра будем на примере выборки, состоящей из 1 миллиона запросов по юридической теме.

Что нам понадобится?

  • Key Collector (Далее KC)
  • Минимум 8гб оперативной памяти (иначе нас ждут адские тормоза, испорченное настроение, ненависть, злоба и реки крови в глазных капиллярах)
  • Общие Стоп-слова
  • Базовое знание языка регулярных выражений

Если вы совсем новичок в этом деле и с KC не в лучших друзьях, то настоятельно рекомендую ознакомиться с внутренним функционалом , описанным на официальных страницах сайта. Многие вопросы отпадут сами собой, также вы немножечко разберетесь в регулярках.

Итак, у нас есть большая база ключей, которые необходимо отфильтровать. Получить базу можно посредством самостоятельного парсинга, а также из различных источников, но сегодня не об этом.

Всё, что будет описано далее актуально на примере одной конкретной ниши и не является аксиомой! В других нишах часть действий и этапов могут существенно отличаться ! Я не претендую на звание Гуру семантика, а лишь делюсь своими мыслями, наработками и соображениями на данный счет.

Шаг 1. Удаляем латинские символы

Удаляем все фразы, в которых встречаются латинские символы. Как правило, у таких фраз ничтожная частотка (если она вообще есть) и они либо ошибочны, либо не относятся к делу.

Все манипуляции с выборками по фразам проделываются через вот эту заветную кнопку

Если вы взяли миллионное ядро и дошли до этого шага – то здесь глазные капилляры могут начать лопаться, т.к. на слабых компьютерах/ноутбуках любые манипуляции с крупным СЯ могут, должны и будут безбожно тормозить.

Выделяем/отмечаем все фразы и удаляем.

Шаг 2. Удаляем спец. Символы

Операция аналогична удалению латинских символов (можно проводить обе за раз), однако я рекомендую делать все поэтапно и просматривать результаты глазами, а не «рубить с плеча», т.к. порой даже в нише, о которой вы знаете, казалось бы, все, встречаются вкусные запросы, которые могут попасть под фильтр и о которых вы могли попросту не знать.

Небольшой совет, если у вас в выборке встречается множество хороших фраз, но с запятой или другим символом, просто добавьте данный символ в исключения и всё.

Еще один вариант (самурайский путь)

  • Выгрузите все нужные фразы со спецсимволами
  • Удалите их в KC
  • В любом текстовом редакторе замените данный символ на пробел
  • Загрузите обратно.

Теперь фразоньки чисты, репутация их отбелена и выборка по спец. символам их не затронет.

Шаг 3. Удаляем повторы слов

И снова воспользуемся встроенным в KC функционалом, применив правило

Тут и дополнить нечем – все просто. Убиваем мусор без доли сомнения.

Если перед вами стоит задача произвести жесткую фильтрацию и удалить максимум мусора, при этом пожертвовав какой-то долей хороших запросов, то можете все 3 первых шага объединить в один .

Выглядеть это будет так:

ВАЖНО: Не забудьте переключить «И» на «ИЛИ»!

Шаг 4. Удаляем фразы, состоящие из 1 и 7+ слов

Кто-то может возразить и рассказать о крутости однословников, не вопрос – оставляйте, но в большинстве случаев ручная фильтрация однословников занимает очень много времени, как правило соотношение хороший/плохой однословник – 1/20, не в нашу пользу. Да и вбить их в ТОП посредством тех методов, для которых я собираю такие ядра из разряда фантастики. Поэтому, поскрипывая сердечком отправляем словечки к праотцам.

Предугадываю вопрос многих, «зачем длинные фразы удалять»? Отвечаю, фразы, состоящие из 7 и более слов по большей части, имеют спамную конструкцию, не имеют частотку и в общей массе образуют очень много дублей, дублей именно тематических. Приведу пример, чтоб было понятней.

К тому же частотка у подобных вопросов настолько мала, что зачастую место на сервере обходится дороже, чем выхлоп от таких запросов. К тому же, если вы просмотрите ТОП-ы по длинным фразам, то прямых вхождений ни в тексте ни в тегах не найдете, так что использование таких длинных фраз в нашем СЯ – не имеет смысла.

Шаг 5. Очистка неявных дублей

Предварительно настраиваем очистку, дополняя своими фразами, указываю ссылку на свой список, если есть, чем дополнить – пишите, будем стремиться к совершенству вместе.

Если этого не сделать, и использовать список, любезно предоставленный и вбитый в программу создателями KC по умолчанию, то вот такие результаты у нас останутся в списке, а это, по сути, очень даже дубли.

Можем выполнить умную группировку, но для того, чтобы она отработала корректно – необходимо снять частотку. А это, в нашем случае не вариант. Т.к. Снимать частотку с 1млн. кеев, да пусть хоть со 100к – понадобится пачка приватных проксей, антикапча и очень много времени. Т.к. даже 20 проксей не хватит – уже через час начнет вылезать капча, как не крути. И займет это дело очень много времени, кстати, бюджет антикапчи тоже пожрет изрядно. Да и зачем вообще снимать частотку с мусорных фраз, которые можно отфильтровать без особых усилий?

Если же вы все-таки хотите отфильтровать фразы с умной группировкой, снимая частотности и поэтапно удаляя мусор, то расписывать процесс подробно не буду – смотрите видео, на которое я сослался в самом начале статьи.

Вот мои настройки по очистке и последовательность шагов

Шаг 6. Фильтруем по стоп-словам

На мой взгляд – это самый муторный пункт, выпейте чая, покурите сигаретку (это не призыв, лучше бросить курить и сожрать печеньку) и со свежими силами сядьте за фильтрацию семантического ядра по стоп-словам.

Не стоит изобретать велосипед и с нуля начинать составлять списки стоп-слов. Есть готовые решения. В частности, вот вам , в качестве основы более, чем пойдет.

Советую скопировать табличку в закорма собственного ПК, а то вдруг братья Шестаковы решат оставить «вашу прелесть» себе и доступ к файлику прикроют? Как говорится «Если у вас паранойя, это еще не значит, что за вами не следят…»

Лично я разгрупировал стоп-слова по отдельным файлам для тех или иных задач, пример на скриншоте.

Файл «Общий список» содержит все стоп-слова сразу. В Кей Коллекторе открываем интерфейс стоп-слов и подгружаем список из файла.

Я ставлю именно частичное вхождение и галочку в пункте «Искать совпадения только в начале слов». Данные настройки особенно актуальны при огромном объеме стоп-слов по той причине, что множество слов состоят из 3-4 символов. И если поставите другие настройки, то вполне можете отфильтровать массу полезных и нужных слов.

Если мы не поставим вышеуказанную галочку, то пошлое стоп-слово «трах» найдется в таких фразах как «консультация государственного страхования» , «как застраховать вклады» и т.д. и т.п. Вот ещё пример, по стоп слову «рб» (республика Беларусь) будет отмечено огромное кол-во фраз, по типу «возмещение ущерба консультация», «предъявление иска в арбитражном процессе» и т.д. и т.п.

Иными словами — нам нужно, чтобы программа выделяла только фразы, где стоп-слова встречаются в начале слов. Формулировка ухо режет, но из песни слов не выкинешь.

Отдельно замечу, что данная настройка приводит к существенному увеличению времени проверки стоп слов. При большом списке процесс может занять и 10 и 40 минут, а все из-за этой галочки, которая увеличивает время поиска стос-слов во фразах в десять, а то и более раз. Однако это наиболее адекватный вариант фильтрации при работе с большим семантическим ядром.

После того как мы прошлись по базовым списком рекомендую глазами просмотреть не попали ли под раздачу какие-то нужные фразы, а я уверен, так оно и будет, т.к. общие списки базовых стоп-слов, не универсальны и под каждую нишу приходится прорабатывать отдельно. Вот тут и начинаются «танцы с бубном.

Оставляем в рабочем окне только выделенные стоп слов, делается это вот так.

Затем нажимаем на «анализ групп», выбираем режим «по отдельным словам» и смотрим, что лишнего попало в наш список из-за неподходящих стоп-слов.

Удаляем неподходящие стоп-слова и повторяем цикл. Таким образом через некоторое время мы «заточим» универсальный общедоступный список под наши нужды. Но это еще не все.

Теперь нам нужно подобрать стоп-слова, которые встречаются конкретно в нашей базе. Когда речь идет об огромных базах ключевиков, там всегда есть какой-то «фирменный мусор», как я его называю. Причем это может быть совершенно неожиданный набор бреда и от него приходится избавляться в индивидуальном порядке.

Для того, чтобы решить эту задачку мы снова прибегнем к функционалу Анализа групп, но на этот раз пройдемся по всем фразам, оставшимся в базе, после предыдущих манипуляций. Отсортируем по количеству фраз и глазами, да-да-да, именно ручками и глазами, просмотрим все фразы, до 30-50 в группе. Я имею в виду вторую колонку «кол-во фраз в группе».

Слабонервных поспешу предупредить, на первый взгляд бесконечный ползунок прокрутки», не заставит вас потратить неделю на фильтрацию, прокрутите его на 10% и вы уже дойдете до групп, в которых содержится не более 30 запросов, а такие фильтровать стоит только тем, кто знает толк в извращениях.

Прямо из этого же окна мы можем добавлять весь мусор в стоп слова (значок щита слева от селектбокса).

Вместо того, чтобы добавлять все эти стоп слова (а их гораздо больше, просто я не хотел добавлять длиннющий по вертикали скриншот), мы изящно добавляем корень «фильтрац» и сразу отсекаем все вариации. В результате наши списки стоп-слов не будут разрастаться до огромных размеров и что самое главное, мы не будем тратить лишнее время на их поиск . А на больших объемах — это очень важно.

Шаг 7. Удаляем 1 и 2 символьные «слова»

Не могу подобрать точное определение к данному типу сочетания символов, поэтому обозвал «словами». Возможно, кто-то из прочитавших статью подскажет, какой термин подойдет лучше, и я заменю. Вот такой вот я косноязычный.

Многие спросят, «зачем вообще это делать»? Ответ прост, очень часто в таких массивах ключевых слов встречается мусор по типу:

Общий признак у таких фраз — 1 или 2 символа, не имеющие никакого смысла (на скриншоте пример с 1 символм). Вот это мы и будем фильтровать. Здесь есть свои подводные камни, но обо всем по порядку.

Как убрать все слова, состоящие из 2-х символов?

Для этого используем регулярку

Дополнительный совет: Всегда сохраняйте шаблоны регулярок! Они сохраняются не в рамках проекта, а в рамках KC в целом . Так что будут всегда под рукой.

(^|\s+)(..)(\s+|$) или же (^|\s){1,2}(\s|$)

(ст | фз | ук | на | рф | ли | по | ст | не | ип | до | от | за | по | из | об)

Вот мой вариант, кастомизируйте под свои нужды.

Вторая строка – это исключения, если их не вписать, то все фразы, где встречаются сочетания символов из второй строки формулы, попадут в список кандидатов на удаление.

Третья строка исключает фразы, в конце которых встречается «рф», т.к. зачастую это нормальные полезные фразы.

Отдельно хочу уточнить, что вариант (^|\s+)(..)(\s+|$) будет выделять все – в том числе и числовые значения . Тогда как регулярка (^|\s){1,2}(\s|$) – затронет лишь буквенные, за неё отдельное спасибо Игорю Бакалову.

Применяем нашу конструкцию и удаляем мусорные фразы.

Как убрать все слова, состоящие из 1 символа?

Здесь все несколько интересней и не так однозначно.

Сначала я попробовал применить и модернизировать предыдущий вариант, но в результате выкосить весь мусор не получилось, тем не менее – многим подойдет именно такая схема, попробуйте.

(^|\s+)(.)(\s+|$)

(с | в | и | я | к | у | о)

Традиционно – первая строка сама регулярка, вторая – исключения, третья – исключает те фразы, в которых перечисленные символы встречаются в начале фразы. Ну, оно то и логично, ведь перед ними не стоит пробела, следовательно, вторая строка не исключит их присутствие в выборке.

А вот второй вариант при помощи которого я и удаляю все фразы с односимвольным мусором, простой и беспощадной, который в моем случае помог избавиться от очень большого объема левых фраз.

(й | ц | е | н | г | ш | щ | з | х | ъ | ф | ы | а | п | р | л | д | ж | э | ч | м | т | ь | б | ю)

Я исключил из выборки все фразы, где встречается «Москв», потому что было очень много фраз по типу:

а мне оно нужно сами догадываетесь для чего.

При помощи Key Collector можно не только существенно упростить процедуру сбора семантического ядра для рекламной кампании, но также и получить наиболее полный и качественный результат и анализ.

Стоит отметить, что данная программа работает не с готовыми базами данных и не занимается генерированием ключевых фраз, а вместо этого она позволяет собирать актуальную информацию напрямую с сервисов-источников.

Приложение позволяет получать информацию с большинства популярных русскоязычных и зарубежных источников, с помощью которых можно получить максимально полную выборку высокочастотных, среднечастотных и, конечно, низкочастотных фраз .

С полученными результатами можно работать как, не выходя из программы, так и экспортировав их в формат Microsoft Excel или CSV.

Удобное классическое табличное представление данных с возможностью фильтрации и дополнительными всплывающими редакторами позволяет анализировать дополнительные сведения.

Key Collector активно используют не только в контекстной рекламе , но и в SEO .

Что же можно сделать с помощью Key Collector?

Настройка Key Collector для парсинга данных Wordstat Яндекс

Для начала необходимо скачать - купить программу на следующем сайте: http://www.key-collector.ru/ .

  1. 1 Заходим в настройки программы, но для этого необходимо кликнуть на шестеренку, расположенную в блоке основных инструментов программы, в левом верхнем углу, в соответствии с рисунком 1.

Рис. 1 - Настройка программы

  1. 2 Выбираем вкладку «Парсинг», в которой будут еще несколько вкладок, из них выбираем Yandex.Direct.

Рис. 2 - Настройка парсинга Yandex.Direct

  1. 3

    Настраиваем аккаунт, для этого необходимо создать почту на Яндексе, ту которая будет предназначаться только для этой программы, чтобы вдруг не заблокировали, в соответствии с рисунком 3.

    Стоит отметить, что необходима обязательная авторизации через аккаунты, созданные в сервисе Яндекс Директ.

Рис. 3 - Настройка аккаунта Yandex.Direct

  1. 4 После того, как все настроено, необходимо начать новый проект, для этого необходимо нажать «Новый проект» и даем ему название, а соответствии с рисунком 4 и 5.

Рис. 4 - Начало работы

Рис. 5 - Название проекта

  1. 5 Указываем регион парсинга, в данном случае регион — «Екатеринбург». Для этого нужно внизу программы нажать на соответствующее поле ввода, напротив красной гистограммы и выбрать необходимый город, в соответствии с рисунком 6 и 7.

Рис. 6 - Выбор региона

Рис. 7 - Выбор региона, например Екатеринбург

  1. 6 Запуск программы на парсинг данных из Яндекс Вордстата, для этого необходимо нажать в панели инструментов на значок, в виде красной гистограммы, в соответствии с рисунком 8.

Рис. 8 - Запуск на парсинг

  1. 7 В открытом окне, вводим список основных высокочастотных или среднечастотных ключевых фраз, которые были подобраны вручную для составления семантического ядра запросов и нажимаем на кнопку «Начать сбор», в соответствии с рисунком 9.

Рис. 9 - Диалоговое окно для ввода ключевых фраз

  1. 8

    Потребуется некоторое время, пока программа закончит сбор данных.

    В результате получается список из большого количества слов, в соответствии с рисунком 10.

    Время сбора зависит от выбранного региона, а также от ключевых слов, получается, что время может занимать от нескольких минут и до нескольких часов.

Рис. 10 - Список собранных всех ключевых фраз

  1. 9

    Производим чистку от нерелевантных и малоэффективных слов, которые не дадут результата для будущей рекламной кампании.

    Конечно, можно заниматься ручным отсевом фраз, нажимать по каждому и отсеивать, но это займет много времени, особенно когда фраз несколько сотен тысяч. Поэтому для этого применим специальный фильтр стоп-слов, который сократит время. Необходимо нажать на иконку стоп-слова в интерфейсе программы, в соответствии с рисунком 11.

Рис. 11 - Иконка фильтр стоп-слова

  • Здесь есть 2 вкладки со списком 1 и 2. В первый список задаются ненужные стоп-слова, которые никаким образом не относятся к проекту, во вторую вкладку наоборот, те слова, которые выгодны для проекта, в соответствии с рисунком 12.

Рис. 12 - Две вкладки списка 1 и 2 «стоп - слова»

  1. 10 Выставляем настройки, как представлено на скриншоте, подобные настройки позволяют искать совпадения во всех фразах, перебирая все слова фраз, если фраза частично совпадает со стоп-словом, такие ключевые фразы будут выделены в общей таблице, естественно, если нажать кнопку: «Отметить в таблице», в соответствии с рисунком 13. Далее нажимаем «Отметить фразы» в таблице.

Рис. 13 - Настройка «стоп-слова»

  1. 11

    После того, как определены «стоп-слова», выделенные в таблице фразы можно смело удалить, выбрав вкладку «Данные» и нажав на «Удалить отмеченные фразы», в соответствии с рисунком 14.

    В результате в таблице останутся те слова, которые будут значительно эффективнее для проекта.

Рис. 14 - Удаление ненужных фраз

  1. 12 Снимаем точные частотности ключевых фраз, для того, чтобы отсеять слова-пустышки. Для этого используем статистику Яндекс.Директ, которая позволяет пакетно снимать данные, в соответствии с рисунком 15.

Рис. 15 - Сбор частоты ключевых фраз

На следующем скриншоте приведены данные, отсортированные по второй колонке «Частота «»» запросов, в соответствии с рисунком 16.

Рис. 16 - Частота «»

  1. 13 Далее выгружаем все ключевые фразы в формат Exel для дальнейшей работы над фразами, в соответствии с рисунком 17.

Рис. 17 - Экспорт ключевых фраз в формат Microsoft Excel или CSV

Сбор сезонности

Программа позволяет собирать информацию о популярности запроса за прошедший период, строить график по этим данным и высказывать предположение о сезонности заданного запроса на основании полученных данных.

Для съема информации о сезонности запроса нажмите кнопку с иконкой графика в группе кнопок "Сбор ключевых слов и статистики", в соответствии с рисунком 18.

Рис. 18 - Иконка сезонности

При съеме информации о сезонности запроса также вычисляются значения средней арифметической частотности и ее медианы. Изменить период, в течение которого рассматривается статистика для вычисления этих значений, можно в настройках сбора Yandex.Wordstat.

При необходимости можно получить статистику с группировкой по неделям, а не по месяцам. В этом случае запуск следует производить через соответствующий пункт в раскрывающемся меню кнопки сбора данных сезонности Yandex.Wordstat, в соответствии с рисунком 19.

Рис. 19 - Вид сезонности в таблице

Просмотреть расширенную информацию о сезонности можно, кликнув на ячейку, соответствующую данной фразе, в соответствии с рисунком 20.

Рис. 20 - График сезонности

При необходимости вы можете выгрузить расширенные данные о частотностях для всех фраз в файл CSV. Для этого необходимо воспользоваться соответствующей кнопкой в раскрывающемся меню кнопки запуска сбора сезонности.

Сбор статистики со счетчиков системы статистики Yandex.Metrika

Программа поддерживает сбор статистики со счетчиков системы статистики Yandex.Metrika. При помощи Key Collector можно собрать слова и трафик с указанного счетчика.

Процесс сбора статистики со счетчика Yandex.Metrika

  1. 1 Нажимаем кнопку с логотипом сервиса в группе кнопок "Сбор ключевых слов и статистики" и вводим данные авторизации в системе статистики, в соответствии с рисунком 21 и 22.

Рис.21 - Кнопка сбора статистики со счетчика системы статистики Yandex.Metrika

* Для сбора статистики Yandex.Metrika необходимо авторизоваться в аккаунту, имеющего доступ к счетчикам, статистику с которых необходимо собрать. Программа поддерживает как обычный, так и пакетный сбор статистики Yandex.Metrika. При использовании обычного сбора можно либо выбрать необходимый сайт в раскрывающемся списке, либо ввести его идентификатор вручную.

  1. 2 Выбираем периода, за который нужно получить статистику. Можно ввести период самостоятельно или воспользоваться шаблоном (квартал, год и т.д.), в соответствии с рисунком 22.
  • Опция "Обновлять статистику для существующих в таблице фраз" позволяет обновлять статистику переходов для существующих ранее в таблице фраз. Например, ранее в таблице была добавлена фраза "ручка". Если опция выключена, и хоть в отчете и встретится эта фраза, но программа не запишет для нее значение переходов. Если же опция была включена, то программа обновит это значение.
  • Опция "Не добавлять в таблицу новые фразы" является дополнением к предыдущей опции. Включив ее, происходит запрет программе добавлять в таблицу фразы, которых там ранее не было. Это может оказаться полезным, если необходимо просто обновить или собрать данные о переходах к ранее собранной статистике, не разбавляя список фраз в таблице новыми фразами, для которых потом может понадобиться дополнительная обработка.
  1. 3 Выбираем способ получения статистики: напрямую средствами API или посуточно средствами программы, в соответствии с рисунком 22.
  • В первом случае программа просто формирует запрос к API Yandex.Metrika, передав в параметрах границы периода сбора. В ответ она получает список фраз сразу со статистикой о переходах, которую сразу можно записывать в таблицу данных. Данный режим является более быстрым, но в результате некоторые НЧ фразы могут быть не получены из-за особенностей работы самого API.
  • Во втором случае программа просматривает статистику за указанный период вручную посуточно, а затем при полном завершении сбора вычисляет значения переходов. Посуточный просмотр частями иногда позволяет получить больше фраз, которые API в обычном режиме не выдает (НЧ фразы), однако это занимает существенно больше времени. Также следует учитывать, что если процесс сбора был прерван, то статистика переходов и отказов вычислена не будет. Поэтому при работе с данным режимом следует дожидаться полного завершения процесса сбора.
  • Опция "Не добавлять фразу, если она уже есть на любых других вкладках" может пригодиться, если не хотим, чтоб в таблицу не поступали фразы, которые уже обработали на других вкладках.

Сбор статистики со счетчиков системы статистики Google.Analytics

Программа Key Collector поддерживает сбор статистики со счетчиков системы статистики Google.Analytics.

При помощи неё можно собрать слова, количество визитов, процентное отношение отказов и целевые страницы с указанного счетчика.

Процесс сбора статистики со счетчика Google.Analytics.

  1. 1 Нажимаем кнопку с логотипом сервиса в группе кнопок "Сбор ключевых слов и статистики" и после этого откроется окно сбора статистики Google Analytics, в соответствии с рисунком 23.

Рис.23 - Кнопка сбора статистики со счетчика системы статистики Google.Analytics

*Для сбора статистики Google Analytics необходимо указать логин и пароль от аккаунта, имеющего доступ к счетчикам, статистику с которых будет собираться информация. При желании можно включить опцию "Сохранять данные авторизации в настройках программы".

После ввода логина и пароля нажимаем на раскрывающийся список с площадками и выбираем счетчик, статистика с которого интересует.

Затем выбираем период, за который собираем статистику.

Ввести период можно самостоятельно или же воспользоваться шаблоном (квартал, год и т.д.), в соответствии с рисунком 24.

  • Опция "Обновлять статистику для существующих в таблице фраз" позволяет обновлять статистику переходов для существующих ранее в таблице фраз.
  • Опция "Не добавлять в таблицу новые фразы" является дополнением к предыдущей опции. Включив ее, можно запретить программе добавлять в таблицу фразы, которых там ранее не было. Это может оказаться полезным, если необходжимо просто обновить или собрать данные о переходах к ранее собранной статистике, не разбавляя список фраз в таблице новыми фразами, для которых потом может понадобиться дополнительная обработка.
  1. 2 Также можно выбрать способ получения статистики: напрямую средствами API или посуточно средствами программы, в соответствии с рисунком 24.
  • В первом случае программа просто формирует запрос к API Google.Analytics, передав в параметрах границы периода сбора. В ответ она получает список фраз сразу со статистикой о переходах, % отказов и целевых страницах, которую сразу можно записать в таблицу данных. Данный режим является более быстрым, но в результате некоторые НЧ фразы могут быть не получены из-за особенностей работы самого API.
  • Во втором случае программа просматривает статистику за указанный период вручную посуточно, а затем при полном завершении сбора вычисляет значения переходов и % отказов. Посуточный просмотр частями иногда позволяет получить больше фраз, которые API в обычном режиме не выдает (НЧ фразы), однако это занимает существенно больше времени. Следует учитывать, что если процесс сбора был прерван, то статистика переходов и отказов вычислена не будет. Поэтому при работе с данным режимом следует дожидаться полного завершения процесса сбора.
  • Опция "Не добавлять фразу, если она уже есть на любых других вкладках" может пригодиться, если необходимо, чтобы в таблицу не поступали фразы, которые уже были обработаны на других вкладках.

Поисковые подсказки

Программа поддерживает сбор поисковых подсказок с шести популярных поисковых систем: Яндекс, Google, Mail, Rambler, Nigma, Yahoo, Яндекс.Директ.

Для того чтобы собрать поисковые подсказки с интересующих поисковых систем, нажмите кнопку с иконкой трех разноцветных сот в группе кнопок "Сбор ключевых слов и статистики", в соответствии с рисунком 25.

Рис. 25 - Кнопка «поисковые подсказки»

В открывшемся окне пакетного ввода слов можно ввести вручную или загрузить из файла интересующие фразы. При этом можно выбрать, куда необходимо поместить результаты парсинга по каждой из входных фраз: на текущую вкладку или распределить по нескольким вкладкам. После этого отмечаем флажками поисковый системы, в которых следует выполнить поиск, и нажать на кнопку начала сбора информации (для того, чтобы флажок "Yandex.Direct" стал доступным, необходимо предварительно прописать один или несколько аккаунтов в "Настройках - Парсинг - Яндекс.Директ"), в соответствии с рисунком 26.

Рис.26 - Окно пакетного ввода слов для сбора поисковых подсказок

Стоит обратить внимание, что сбор подсказок с Yandex.Direct имеет очень маленький лимит количества запросов. Рекомендуется использовать сбор поисковых подсказок из Yandex.Direct только для ограниченного числа фраз при существующей необходимости.

Опция "С подбором окончаний" позволяет собирать еще больше подсказок за счет того, что программа будет подбирать окончания слов автоматически.

Перебор окончаний бесполезен, если в качестве исходных слов задаются полные слова, в соответствии с рисунком 27.

Рис.27 - Настройка «поисковых подсказок»

Стоит обратить внимание, что не надо включать опцию подбора окончаний без явной необходимости, т.к. ее использование очень сильно влияет на количество совершаемых запросов и на общее время выполнение задачи.

Key Collector поддерживает сбор похожие поисковых запросов из поисковой выдачи ПС Яндекс, Google, Mail.

Для того чтобы собрать поисковые подсказки с интересующих поисковых систем, нажмите кнопку в группе кнопок "Сбор ключевых слов и статистики", в соответствии с рисунком 28.

Рис.28 - Кнопка "Сбор ключевых слов и статистики"

В открывшемся окне пакетного ввода слов можно ввести вручную или загрузить из файла интересующие фразы. При этом можно выбрать, куда необходимо поместить результаты парсинга по каждой из входных фраз: на текущую вкладку или распределить по нескольким вкладкам. После этого необходимо отметить флажками поисковый системы, в которых следует выполнить поиск, и нажать на кнопку начала сбора информации, в соответствии с рисунком 29.

Рис.29 - Окно пакетного ввода слов

Вычисление лучшей словоформы

Для того чтобы собрать лучшие словоформы для имеющихся ключевых фраз, нажимаем на кнопку с логотипом сервиса в группе кнопок "Сбор ключевых слов и статистики" и выбираем соответствующий пункт в раскрывающемся меню кнопки, в соответствии с рисунком 30.

Рис.30 - Кнопка "Сбор ключевых слов и статистики"

Сбор расширений для ключевых фраз

Для того чтобы запустить сбор расширений (новых ключевых фраз) по имеющемуся списку фраз, нажимаем на кнопку с логотипом сервиса в группе кнопок "Сбор ключевых слов и статистики" и выбираем соответствующий пункт в раскрывающемся меню кнопки, в соответствии с рисунком 31.

Рис.31 - Кнопка "Сбор расширений ключевых фраз"

В открывшемся окне пакетного ввода слов можно ввести вручную или загрузить из файла интересующие слова. При этом предоставляется выбор, куда поместить результаты парсинга по каждой из входных фраз: на текущую вкладку или распределить по нескольким вкладкам. После нажатия кнопки запуска процесса программа приступит к сбору данных по заданным ключевым фразам, в соответствии с рисунком 32.

Рис.32 - Окно пакетного ввода слов

Если работаете с огромными проектами (десятки или сотни тысяч фраз) и собираете фразы в пакетном режиме, то может оказаться полезной опция "Не обновлять содержимое таблицы после групповых операций вставки и обновления при парсинге" в "Настройках - Интерфейс - Прочее".

Итак, в данной статье описаны возможности Key Collector для контекстной рекламы , а также рабочий способ того, как можно создать семантическое ядро (создание семантического ядра необходимо и в SEO) для рекламной кампании, используя ключевые фразы, спарсенные из Яндекс Вордстат .

Также, мы можем определить слова - пустышки, которые будут неэффективные для РК.