Прогнозируем SEO трафик на сайт

Как прогнозировать посещаемость сайта с поисковых систем? Вы собрали запросы с разных источников, почистили, спарсили частотность, отсеяли пустышки и получили семантическое ядро, готовое к продвижению.

Но задаетесь ли вы вопросом, сколько человек придет на ваш сайт при продвижении по этому ядру? Какой трафик будет через месяц, три, полгода, год? В этой статье попробую дать ответ на этот вопрос.

Объясню общую схему: ничего нового в ней нет. Считать будем под Яндекс исходя из статистики wordstat и среднего CTR SERP. Если написанное выше вам и так известно, переходите сразу к концу статьи. Если вы вообще не поняли, о чем я, советую сначала ознакомиться со следующими ссылками:

1. Сбор частотности Wordstat

Не буду долго рассказывать про то, что это и как. Пройдемся сразу по инструкции:

  • вводите слово или фразу
  • получаете частотность этой фраз за ПОСЛЕДНИЙ (!) месяц в ОПРЕДЕЛЕННОМ (!) регионе

Теперь о частотности:

Цифры рядом с каждым запросом в результатах подбора дают предварительный прогноз числа показов в месяц, которое вы получите, выбрав этот запрос в качестве ключевого слова.

Т.е. частотность — это ПОКАЗ (!) страницы выдачи по данному запросу. Сюда входят:

  1. Посетители поисковика, которые набирают запросы, им показывается страница выдачи (это уже +1 пункт к частотности)
  2. Посетители поисковика, которые набирают запросы, им показывается страница выдачи, они не находят там ничего и переходят на вторую страницу выдачи (в таком случае, это уже +2 пункта к частотности одного запроса). Или же пользователь, который перешел на сайт, а потом вернулся к выдаче и обновил ее, или заново ввел запрос (это тоже добавка к частотности).
  3. Вебмастера и сеошники, которые набирают запросы для анализа выдачи, чтобы посмотреть конкурентов, позицию сайта, заголовки и сниппеты, проверить уникальность фразы (это тоже +n количество к частотности запроса)
  4. Накрутчики, спаммеры, школьники, эльфы, гоблины и прочая нечисть, которые открывают запрос по 100 раз за день, чтобы кликнуть на свой сайт (+n пунктов к частотности)
  5. Программки и сервисы, которые анализируют выдачу, всевозможные парсеры и анализаторы (но я так понимаю, не все программы и сервисы влияют на частотность запроса)
  6. Боты и т.д.

Школьник на фоне Wordstat Т.е. мы имеем «грязный» показатель, которые не отражает реально количество запросов живых пользователей. Wrdst = dp1 + dp2 + dp3 + dp4 + d5 + d6, где dp — от англ. display (показ) с порядковыми номерами, как в списке сверху. Причем:

  • dp1 и dp2 — мы можем как-то просчитать, т.к. у нас есть вероятность клика по сайту в ТОП-10, а также вероятность перехода на вторую страницу выдачи,
  • dp3 — тут не понятно, потому что иногда сеошник может не кликать по сайту (в таком случае, это размывает наш CTR), либо кликнуть, тогда это будет нецелевой трафик,
  • dp4 — есть не во всех тематиках, но думаю, там, где каким-либо способом пытаются манипулировать ПФ, есть в частотности такая доля пустых кликов,
  • dp5 — как бы то ни было, программы в основном не кликают по сайтам, а просто анализируют позиции или собирают другие данные.
  • dp6 — по-разному.

Нас интересуют dp1 и dp2. В идеале остальные надо посчитать и убрать из частотности, но с этим проблема — как посчитать? Поэтому обычно влияние всех этих 4 факторов нивелируют, как бы не беря их во внимание.

Частотность мы обсудили. Поняли, что эти данные отображают. Теперь возьмем для примера запросы:

  • дубликаты номеров
  • дубликаты номерных знаков
  • дубликат гос номера

И соберем у них частотность с операторами «» и «!»

Wrdst «Wrdst» «!Wrdst»
дубликаты номеров 3 329 222 134
дубликаты номерных знаков 1 645 727 680
дубликат гос номера 6 125 1166 679

 2. CTR SERP

У нас есть выдача из 10 сайтов на первой странице и остальные страницы. И у нас есть вероятность, что пользователь кликнет по одному из 10-и сайтов или же перейдет на вторую страницу и там затеряется в дебрях индекса. Вероятность = CTR. Распределение вероятности по ТОП-10 следующее:

  • 1 место – 25-30%
  • 2 место – 15-20%
  • 3 место – 10-12%
  • 4 место – 8-9%
  • 5 место – 4-8%
  • 6 место – 4-5%
  • 7 место – 4-5%
  • 8 место – 3-4%
  • 9 место – 2-4%
  • 10 место- 3-5%

Таблица была взята у Деваки (http://devaka.ru/). Имеем:

CTR0 CTR1 Ср.Знач
ТОП 1 25 30 27,5
ТОП 2 15 20 17,5
ТОП 3 10 12 11
ТОП 4 8 9 8,5
ТОП 5 4 8 6
ТОП 6 4 5 4,5
ТОП 7 4 5 4,5
ТОП 8 3 4 3,5
ТОП 9 2 4 3
ТОП 10 3 5 4

Из таблицы мы выводим средние CTR для разных позиций:

  • Средняя вероятность клика (CTR) в ТОП 1 — 27,5%
  • Средняя вероятность клика (CTR) в ТОП 1-3 — 18,67%
  • Средняя вероятность клика (CTR) в ТОП 1-5 — 14,10%
  • Средняя вероятность клика (CTR) в ТОП 1-10 — 9,00%

Хочу сразу заметить, что CTR этот усредненный. Этот показатель зависит от многих факторов: тематики, заголовка и сниппета, типа запроса и др.

Вернемся к таблице с запросами. Исходя из CTR найдем приблизительный трафик с Яндекса для различных позиций сайта.

Wrdst «Wrdst» «!Wrdst» ТОП 1, чел ТОП 3, чел ТОП 5, чел ТОП 10, чел
дубликаты номеров 3 329 222 134 37 25 19 12
дубликаты номерных знаков 1 645 727 680 187 127 96 61
дубликат гос номера 6 125 1166 679 187 127 96 61

Теперь сравним с сайтом, который занимает 1 позицию по этим трем запросам. За последний месяц по соответствующим запросам с Яндекса на сайт пришло:

  • 57 (CTR ≈ 42%)
  • 252 (CTR ≈ 37%)
  • 177 (CTR ≈ 26%)

Как мы видим CTR у первых двух фраз выше нормы, у последней фразы в пределах статистики 🙂 Если посчитать общее количество по 3 словами.

  • Прогноз — 410 посетителей
  • Фактически — 486 посетителей

Разница есть, но не такая уж критичная.

А теперь проблемы этого метода прогнозирования посещаемости

  • Частотность берется для прошлого месяца, я брал посещаемость тоже за прошлый месяц. Т.е. это не прогноз посещаемости, а проверка корреляции количества посетителей и частотности за прошлый месяц.
  • Есть еще сезонность частотности, так называемся, история запросов. Логика такая, что можно посмотреть, как росла в прошлом году частотность в том или ином месяце относительно предыдущего, и скорректировать текущие данные.
  • Все эти расчеты хороши для частотности «!» более 300. Для частотностей меньше 100 этот метод дает слишком больной разброс между частотностями и рассчитанным трафиком (более 50%).
  • Есть проблема с низкочастотниками. Предсказать их частотность (и трафик по ним) сложно, часть из них вообще не повторяется в поиске (имеют частотность 1 или 0). Прогноз по этому методу дает мизерные числа, а реальный трафик по данным фразам может быть в разы больше.
  • Не получается спрогнозировать общую посещаемость сайта, т.к. метод не работает на всей совокупности семантики. Опять же (см. предыдущий пункт) прогноз получается меньше реального трафика.

Есть у меня пара идей, которые вытекают из исследования Яндекса от 2009 года «Поиск в интернете: что и как ищут пользователи в интернете». И там есть две интересные фразы:

Реальных запросов к поиску меньше — каждый день пользователи Рунета задают, по оценке Яндекса, более 85 миллионов запросов (при ежедневном просмотре страниц результатов поиска более 104 миллионов раз).

В среднем, когда пользователь обращается к поиску, он делает около трёх запросов — этого ему хватает, чтобы найти то, что он искал.

Вместо заключения: у этого метода есть минусы. Главный из них — нельзя просчитать, какой трафик будет у сайта целиком во время продвижения по данной семантике. Конечно, можно. Но точность оставляет желать лучшего, постараюсь что-нибудь придумать 🙂

Рубрика:

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *