Программа Чистки Ключевых Слов

Мы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.

  1. Ключевые Слова В Статье
  2. Программа Для Очистки Ключевых Слов

Все, кто собирает семантику, сталкивается с проблемой – не целевые (мусорные) слова, которые очень муторно вычищать, чтобы получить финальный список ключевых слов, пригодный для работы. Как обычно чистят семантическое ядро от мусора?

Ненужные слова я не удаляю, а перемещаю их в группы, потому что:. Они в дальнейшем могут стать пищей для размышления и приобрести актуальность. Исключаем вероятность случайного удаления слов. При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку. Я иногда забывал её ставить, поэтому в расписывал, что настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался: Вы можете работать так или так, кому как удобно. Сбор частотностей Собираем у всех слов через direct, базовую частотность W и точную “!W”.

Не забываем выставить регион – Россия, если делаете сайт под российскую аудиторию. Все что не собралось, дособираем через wordstat. Чистка однословников и не формат Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.

Например, у нас тематика - болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду - это слишком широкий и неоднозначный запрос.

Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди. Чистка по общей и точной частотности Все слова с общей частотностью W от 0 до 1 убираем. Так же убираю и все от 0 до 1 по точной частотностью ”!W”.

Разношу их по разным группам. В дальнейшем в этих словах можно найти нормальные логические ключевые слова.

Оптимизация сайта под ключевые слова

Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет. Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.

Чистка по полноте охвата Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов. Поэтому, по всем словам, я рассчитываю, такое KEI: Точная частотность / Базовая частотность. 100% = полнота охвата Чем меньше процент, тем больше вероятность что слово пустое. В KeyCollector эта формула выглядит вот так: YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01).

100 Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%. Чистка по неявным дублям Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей. Таким способом мы нашли и отметили все не явные дубли.

Закрываем вкладку - Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.

Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей. Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords. Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно. Краснодар на карте. Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.

Ключевые Слова В Статье

Чистка по стоп словам Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций. Отдельно заношу слова содержащие в себе слова фото, видео.

Вдруг они когда-нибудь пригодятся. А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д. Все так же зависит от тематики.

Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин. Получается вот такой список групп по стоп словам: Чистка накрученных слов Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0. А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса. Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные. Чистка по гео Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.

Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые. Ручная чистка Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.

На выходе получаем вот такие группы нашего ядра: Желтый - стоит покапаться, можно найти слова на будущее. Оранжевый - могут пригодится, если будем расширять сайт новыми сервисами. Красный - не пригодятся.

Видимо речь идет о поиске запросов для SEO-ядра. 1) Удалить дубликаты 2) Воспользоваться общедоступным списком стоп-слов, в интернете их полно.

Программа Для Очистки Ключевых Слов

Там различные города России, слова 'скачать', 'порно', 'бесплатно' и все такое. Такие списки можно загуглить, но перед использованием обязательно прошерстить глазами, чтобы нужных запросов не убрать. 3) Потом вручную просматриваете то, что осталось. Надо на разные группы под разные страницы разбивать, если их у вас 1500, а вы искали под 1 страницу. 4) Ничего не удаляйте, сделать группу 'мусор' и в нее перемещайте. Вообще логика неправильная, надо сначала собрать семантическое ядро для вашей тематики, потом его сегментировать, потом распределить по будущим страницам, потом досоздать страницы. 1500 - это не много, люди пользуются базами ключей (Моаб, Пастухов), синомизацией, искуственной семантикой и т.д., чтобы собирать полные семантические ядра.

Posted on