Домой Продвижение «SEO без воды»: стратегии работы со ссылками в 2020 году

«SEO без воды»: стратегии работы со ссылками в 2020 году

62
0

На онлайн-конференции «SEO без воды» Юрий Хаит (Bitkey) рассказал о «Современных стратегиях работы со ссылками». Юрий объяснил, почему ссылки не работают, верить ли показателям DR/UR и TF/CF и как ускорить индексацию доноров. Обо всем этом читайте в нашем обзоре или смотрите видео.

Видеозапись доклада вы найдете в конце статьи.

Почему ссылки не работают

Для проведения ссылочного анализа, как правило, используются следующие инструменты:

  • Ahrefs
  • Majestic
  • Google Search Console
  • Яндекс.Вебмастер
  • SEMrush
  • Serpstat
  • MegaIndex

Для удобства анализа Юрий использует программу Linkbox. Она позволяет работать со ссылками, которые добывают из Ahrefs, Search Console и др. источников, и проверять их работоспособность.

По словам докладчика, типичная проблема, с которой сталкиваются специалисты, анализируя ссылки из Ahrefs – большинство из них не существует в принципе.

Как это происходит: взяли один проект, из которого выгрузили 1411 ссылок. Из них только 719 оказалось проиндексировано. 420 – не в индексе. Остальные отдают недействительный код ответа, либо не проверены.

Глобальная картина со ссылками из Ahrefs: только 1/10 выгружаемых ссылок работают.

 Это связано с тем, что с донора идет более 1 ссылки на станицу-акцептор: одна из них каноническая, одна нет, но фактически это одна и та же ссылка. Часто ссылки нет на месте (удалена вебмастером). Или ссылка находится на сайте, которого уже нет.

5 основных причин, почему ссылки не работают:

  • ссылки нет;
  • одновременно донор noindex + ссылка nofollow;
  • донор 404;
  • дубль;
  • страница низкого качества.

Юрий привел пример анализа ссылок по двум проектам: своего под NDA (на графике показан оранжевым цветом) и конкурента (голубой цвет).

Анализ ссылочной массы своего проекта (ndaproject4) и сайта конкурента (moving.com)

Ссылочные массы сайтов похожи, но конкурент находится в ТОПе.

Поэтому работу начали с того, что почистили дубли – страницы, которые имеют тот же самый контент, но уже с другим урлом.

При анализе мест размещения ссылок оказалось, что у своего проекта многих ссылок нет. Большинство из них не в индексе. Далее сравнили, какие ссылки с doFollow, какие нет.

В итоге оказалось, что ссылок у своего проекта существенно меньше, чем у конкурента.

Как видят ссылки Ahrefs, Google Search Console и Яндекс.Вебмастер

Далее, чтобы выяснить, какому источнику можно верить, взяли больший объем – 1 млн обратных ссылок на проекты в Рунете – и сравнили, что по ним видит Ahrefs, Search Console и Яндекс.Вебмастер.

Пример анализа ссылок в анализаторах: Ahrefs, Google Search Console и Я.Вебмастер

На графике серый прямоугольник в конце – это так называемые хорошие ссылки.

Оказалось, что большая часть ссылок, которые изъяты из Ahrefs – мусорные, в них много дублей, страниц, которые отдают ответ, отличный от 200, хороших ссылок остаётся 10%.

У Google Search Console результат получше, хороших ссылок 20%.

У Яндекс.Вебмастера в целом неплохо, но туда попадает очень мало ссылок. Возможно потому, что Яндекс не индексирует отдельные доменные зоны.

Итог Ahrefs vs Google Search Console:

Полнота Ahrefs – 62%, высокая дублицированность. В Ahrefs много ссылок с неиндексируемых страниц, обёрнутых в nofollow.

Google Search Console содержит 24% ссылок, которые отдают ответ 404. И еще столько же ссылок, которых уже нет.

Если ссылка не попала в Search Console, значит с ней что-то не так, хорошая ссылка всегда попадет в GSC.

Примечание: Почему анализаторы отдают разные данные? Связано с тем, что разные роботы-краулеры по-разному считывают AJAX. Например, такую штуку как React умеет читать только Яндекс, соответственно данные по ссылкам, которые есть на странице, применяющей React, есть только в Яндекс.Вебмастере. Если там нет пререндера, то Google эту ссылку не увидит.

Пример, как краулеры видят ссылки

Как видят ссылки Majestic и Serpstat

Другой важный инструмент в работе со ссылками – Majestic, однако его API стоит $400 в месяц. Majestic использует параметры CF/TF, которые говорят о том, насколько хорошо у сайта донора со ссылками:

  • Citation Flow (CF) показывает, сколько всего ссылок есть на страницу/на сайт, по данным Majestic.
  • Trast Flow (TF) Majestic считает по своей базе хороших сайтов, насколько часто они ссылаются на ваш сайт.

При сравнении данных Ahrefs и Majestic по одному и тому же сайту получены следующие результаты:

  • Ahrefs увидел 5 млн обратных ссылок.
  • Majestic видит только 2 млн.

Это происходит потому, что в Majestic попадает намного меньше дублей. Получаем больше чистых данных.

Это очень неплохой показатель, но там нет свежих данных. Если вы реализовали стратегию крауд-маркетинга в прошлом месяце, то не сможете ее проанализировать. Данные обновляются очень редко, в лучшем случае 1 раз в месяц.

Итог Ahrefs vs Majestic:

  • Дубли: в Majestic их почти нет;
  • Полнота: в Majestic попадает до 86% ссылок (у Ahrefs в среднем – 62%);
  • Свежих данных нет ни там, ни там, что невозможно применять при линкбилдинге.

Еще один инструмент Serpstat. На данный момент в нем почти триллион (952 млрд) ссылок по 168 миллионам доменов. Каждый день Serpstatbot добавляет 2 млрд новых ссылок и обходит 2,5 миллиона доменов в день.

Serpstat считает ссылки с поддоменов внешними. Если на сайте есть линковка между поддоменами, он показывает для вашего домена, что это внешние ссылки.

У Serpstat небольшое количество API-лимитов, они тарифицируют именно ответы, а не запросы, которые вы делаете, получается, чтобы собрать данные по ссылкам нужно затратить много ресурсов. Данные там достаточно грязные с ними трудно работать.

Важные наблюдения

Ссылки с высоким Trust flow – меньше 1 млн хорошо коррелируют с положительной динамикой позиций.

В YMYL-тематиках (медицина, юриспруденция, финансы), где контент может повлиять на жизнь и здоровье людей, Google стремится давать правдивые ответы, поэтому использует такие параметры, как авторитетность ресурса. Для всех остальных (не-YMYL) тематик оказывается, что низкокачественные ссылки работают так же, как и высококачественные.

Cсылки, которые дают Advodka, Keys.so pr-cy и другие анализаторы НЕ надо закрывать в disavow. Часть из них – хорошие. Ими можно бустить страницы доноров.

Как индексировать ссылки

Раньше проставив ссылку на страницу донора, мы сразу отправляли ее в addURL. Теперь инструмент от Google работать перестал.

  • Twitter: не работает. Индексируется менее 3% ссылок.
  • Для ссылок Tier2, Tier3: годятся любые инструменты типа Xrumer, Senuke Xcr и т.д., но избавляться от footprint-ов дорого для целей индексации.
  • Дорвеи: хороший метод, но дорого и одни те же домены нельзя использовать для индексации постоянно, т.к. они быстро попадают в бан.
  • 301: http://linkbox.pro/ru/google-addurl (несколько трастовых сайтов без футпринтов – добавляем URL с редиректом в GSC и отправляем на индексацию).

Хотя это странно обходить Google страницы, которые отдают 301, но робот обходит эту страницу, так повышается вероятность добавления ее в поиск. Получается классный инструмент. НО у нас нет доступа к самим донорам, откуда пришел редирект.

Выводы

  • Качественные метрики ссылок меньше коррелируют с позициями, чем количественные.
  • Инструменты ссылочного анализа, основанные на big data, содержат много неактуальных, грязных данных и не подходят для анализа работы линкбилдеров.
  • Проиндексировать свои ссылки дешевле, чем купить новые.

Видеозапись доклада

Презентация доклада доступна по ссылке.

Источник: seonews.ru

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here