Алексей Филатов , 16 Февраля 2017

Кластеризация запросов в Key Collector

Продолжаем цикл статей на тему автоматизации разработки рекламных кампаний для интернет-магазина: кластеризуем ядро!


После прочтения статей вы научитесь: оптимизировать кампании в Excel методами, которые используются в оптимизаторах конверсий; автоматически собирать семантику, сегментировать и создавать объявления; прогнозировать конверсию на базе истории и многое другое.

Темы статей:

  1. Выгрузка данных из Google Analytics и Яндекс Метрики по API
  2. Парсинг ключевых слов в Key Collector
  3. Кластеризация запросов
  4. Агрегирование данных
  5. Прогнозирование конверсии для ключевых слов
  6. Расчет ставок
  7. Разработка заголовков
  8. Разработка рекламных кампаний
  9. Анализ эффективности

Материал сложный и раскрывает только базовые подходы к автоматизации, чтобы задать вам вектор развития.

В прошлой статье мы распарсили наши запросы с конверсиями, в этом нам нужно его кластеризовать вместе с полученными входящими запросами.

На ряду с обычными методами сбора ключевых слова «руками» есть метод расширения семантического ядра путем кластеризации запросов. Суть кластеризации в том, что, например, по запросам «купить велосипед» и «купить велосипед в Москве» будут cхожие поисковые выдачи. Их схожесть определяется количеством одинаковых URL в выдачи. Следовательно, если для 10-ти запросов спарсить поисковую выдачу, то можно поделить запросы по группам, например, «эти два запроса имеют 4 одинаковых URL, давайте определим их в одну группу»


Собственно, из этой простой технологии вытекает интересная возможность автоматизации контекстной рекламы, которую мы рассмотрим в цикле статей по разработке рекламной кампании с применением кластеризации ключевых слов.

Возникли трудности?

Мы можем помочь вам настроить контекстную рекламу, оставьте заявку или напишите в чат.

Нам нужно взять наши запросы с конверсиями и к ним «примагнитить» входящие запросы, который мы распарсили ранее. Для этого нам нужно спарсить для всех запросов поисковую выдачу и соотнести все запросы с друг другом по выдаче. Это и называется кластеризация семантического ядра.

Парсить выдачу для 30 000 запросов, это многовато :) Поэтому используем сервис xmlproxy.ru, там 1 запрос стоит 0,005 рублей, в итоге 30 000 * 0,005 будет всего 150 рублей, это супер дешево!

Регистрируемся, пополняем баланс и копируем адрес для запросов.


Адрес вставляем в настройки Key Сollector, как на скрине. Правим настройки, можно установить аж 100 потоков!


Теперь можете создать тестовый запрос и проверить, как у вас все работает. Должны собираться ссылки до 10-ой позиции.


Теперь создаем новую группу и копируем в нее слова после парсинга и слова с конверсиями. Слова после парсинга необходимо предварительно лемматизировать, как мы делали ранее.


Теперь запускаем сбор данных, как мы делали ранее и ждем.


После парсинга группируем слова на основании схожести поисковой выдачи, для этого используем следующие параметры. Нажимаем Вычислить группировку, группировка может занимать до часа времени.


Экспортируем группы и ключевые слова.


Все, вот и вся кластеризация! Исследование на выявление отличий алгоритма кластеризации в KC и онлайн-сервисов мы не проводили.

Стоит признать, что после 100 запросов Key Collector начинает глючить, поэтому нам пришлось арендовать сервер и написать свое ПО для парсинга и кластеризации больших массивов.

Пишите вопросы в комментариях, какие темы было бы интересно раскрыть подробнее? Если у вас есть идеи или советы, то делитесь!

Подпишитесь на Facebook или Телеграмм, чтобы не пропустить новые статьи

Разделяешь наш подход? Вступай в команду!
Другие материалы по теме
Визуализация данных Яндекс Директ в PBI HOWTO
Визуализация данных Яндекс Директ в PBI
В предыдущей статье мы рассказали как выгрузить данные из Яндекс Директ с помощью Python в CSV таблицу. Теперь построим на этих данных красивый и полезный отчет.
Интеграция клиента и агентства HOWTO
Интеграция клиента и агентства
В статье расскажем, как происходит интеграция клиента и агентства, и как выстраиваются коммуникации.
Выгрузка данных из API Яндекс Директ через Python HOWTO
Выгрузка данных из API Яндекс Директ через Python
Рассказываем как выгрузили 30 млн. строк данных для последующего анализа в Power BI.
Прогноз стоимости и количества лидов HOWTO
Прогноз стоимости и количества лидов
Рассказываем об одном из способов медиапланирования - получения прогнозной стоимости и количества лидов.
Модели атрибуции на примере интернет-магазина HOWTO
Модели атрибуции на примере интернет-магазина
В этой статье продолжим рассматривать атрибуции на примере реального интернет-магазина. и расскажем какие выводы можно сделать, сравнивая модели.
Модели атрибуции в Google Analytics HOWTO
Модели атрибуции в Google Analytics
Что такое модель атрибуции? Какими они бывают? Как правильно выбрать модель атрибуции?
читать наш блог

Оставьте заявку

После того, как вы оставите заявку: интервью ~15 минут → гостевые доступы для аудита ~15 минут → аудит в течении 2-х дней → согласование предложения → начало первой итерации. По нашему опыту реально начать что-то делать уже через 2-3 дня.

Менеджер проектов Александр
Александр

Менеджер проектов



Пишите на — info@1jam.ru , звоните в скайпе — jam.agency , или по телефону — 8 (800) 551-85-03