Домой СЕО Webmaster Conference в GooglePlex: интересные тезисы из докладов

Webmaster Conference в GooglePlex: интересные тезисы из докладов

317
0

4 ноября Google впервые провёл Webmaster Conference в своей штаб-квартире GooglePlex в Маунтин-Вью.

Ниже – интересные тезисы из докладов сотрудников компании,
которыми поделилась
одна из участниц мероприятия Джеки Чу
(Jackie Chu) в своём блоге.

Структурированные
данные

  • Эволюция поиска: переход от 10 «синих ссылок» к более расширенным результатам c использованием таких вещей, как карусели и метаданные.
  • Важно работать над тем, чтобы страницы могли появляться в расширенных результатах, были видимыми в поисковой выдаче и использовались Assistant;
  • Со всеми видами расширенных результатов в Google можно ознакомиться по ссылке.

Search Console

  • Миссия команды – дать владельцам сайтов данные и инструменты для того, чтобы они могли улучшить представленность своих ресурсов в поиске;
  • Как работает Search Console – 5 основных компонентов: 1) поисковая аналитика; 2) отчёты; 3) инструменты проверки; 4) аккаунт; 5) оповещения.
  • Анализ поисковых запросов: отслеживает все показы в поиске, предоставляет данные за 16 месяцев.
  • Отчётность: отслеживает все просканированные страницы, сотни сигналов, поддерживает десятки поисковых функций и предоставляет полезные отчёты.
  • Инструменты проверки: позволяют определять и устранять проблемы в работе сайта.
  • Аккаунты: важным вопросом является безопасность. Google хочет защитить данные через валидацию.
  • Оповещения: что приводит к отправке email? Если Google видит что-то, что требует внимания владельца сайта, он отправляет оповещение (существуют десятки типов таких сообщений).
  • Как был создан новый отчёт о скорости загрузки. Самой большой проблемой было определить, что такое «быстрая» страница. То, что видит Googlebot, отличается от того, что видят конечные пользователи. Поэтому Google использовал отчёт об удобстве пользования браузером Chrome, поскольку он отслеживает пользовательский опыт по всему миру.

Дедупликация контента

  • Что это такое? Для дедупликации нужно определить и кластеризировать похожие веб-страницы, а затем по каждому кластеру выбрать репрезентативные URL, которые должны показываться пользователям (канонические URL).
  • Зачем Google это делает? Пользователи не хотят видеть повторяющиеся результаты поиска; это даёт больше места для разного контента в индексе, что позволяет обслуживать long-tail запросы; это хорошо для вебмастеров, поскольку позволяет сохранять сигналы при редизайне сайта и находить альтернативные названия (синонимы).
  • Кластеризация: редиректы, контент, rel=canonical и другие сигналы. «Мы доверяем редиректам, поскольку они практически идеально предсказывают дублированный контент».
  • Контент: Google старается игнорировать шаблонный контент и по максимуму определять ошибки soft 404.
  • Сигналы rel=canonicals используются в процессе кластеризации. Если владелец сайта использует собственные аннотации для кластеризации, то они проходят более тщательную проверку. Пороговые значения по-прежнему находятся в широком диапазоне, поскольку люди допускают ошибки, а скрипты дают сбои.
  • Локализация: когда основной контент является одинаковым, страницы кластеризируются. Гео-редиректы также часто кластеризируются. Использование атрибутов hreflang помогает Google проводить локализацию.
  • Каноникализация: основная цель Google – избежать ошибок и выбора неправильного URL. Полезно сообщать о таких ситуациях на справочных форумах. Второй повод для беспокойства – пользовательский опыт. Также важны сигналы, настраиваемые вебмастерами: редиректы, rel=canonical, файлы Sitemap.

Поиск по картинкам

  • Google запустил множество эстетических изменений, чтобы улучшить восприятие результатов поиска и сделать более заметными CTA-кнопки.
  • AMP-страницы – запущена новая функция, которая облегчает переход на них из результатов поиска (для этого достаточно свайпа вверх).
  • Лучшие практики: используйте структурированные данные для расширенных результатов (товаров, видео, рецептов). Используйте описательные URL, подписи и названия файлов. Google всё это показывает пользователям. Используйте качественные изображения. Google хочет предоставлять «красивый и вдохновляющий контент». Оптимизируйте страницы для мобильных устройств – это всё улучшает результаты поиска.
  • Трафик из Google Картинок можно отслеживать в Search Console.

Рендеринг

  • Рендеринг позволяет Googlebot видеть тот же интернет, который видят пользователи.
  • В индексе поисковой системы содержатся триллионы страниц.
  • Google сначала сканирует контент, а затем выполняет JavaScript.
  • JavaScript: хорошая новость состоит в том, что Google использует Chrome. Плохая новость – в интернете большое количество JS, для выполнения которого нужно большое количество ресурсов. Поскольку глобальные ресурсы Google ограничены, он не хочет, чтобы они тратились на ошибочные страницы. Поэтому Google может прерывать выполнение скриптов, если их рендеринг — слишком затратный процесс, а в крайних случаях – помечать их как необрабатываемые.
  • С большинством страниц всё в порядке. Частые проблемы: циклические ошибки (robots.txt, отсутствующие функции), клоакинг и майнеры криптовалют, которые имеют слишком большой вес и увеличивают расход ресурсов на индексирование в несколько раз.

Со всеми заметками можно ознакомиться здесь.

Источник: searchengines.ru

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here