Обзор самых актуальных новостей SEO за январь 2022

Обзор самых актуальных новостей SEO за январь 2022

Категории
Категории
Екатерина Мартиросян
  • 19 мин
  • 1071

Какие последние новости в мире Google и SEO? Эксперты из Yoast и SEJ расскажут: о новом теге Indexifembedded; о том, что обновление Google’s page experience приходит на десктопы; об API от Google для проверки URL-адресов и о многом другом. Настройтесь на следующий вебинар по новостям SEO в феврале.

Обзор новостей от Yoast

Подборка новостей от SEJ и комментарии представителей Yoast

Yoast обзор новостей

Обновление Google’s page experience приходит на десктопы и Google Search Console запускает отчет page experience для десктопных страниц

Анонс: Джоно Алдерсон и Йост де Валк обсуждают новости. На этот раз к ним присоединится специальный гость: Себастьян ван дер Ланс из WordProof.

Джоно Алдерсон и Йост де Валк месяцами говорили о том, как важна скорость страницы, это, на что смотрит Google и за что вознаграждает. 

Обновление Google’s page experience приходит на десктопы. Скорость страницы теперь является явным фактором ранжирования. Сначала он появился на мобильных устройствах, а теперь появляется и на настольных компьютерах. Кроме того, в Google Search Console теперь есть отчет page experience для десктопных страниц. 

В этом нет сюрпризов. Иметь быстрый сайт — выгодно не только со стороны SEO, но также из-за конверсии и пользовательского опыта. 

Если вы еще не смотрите на скорость своей страницы, вам определенно следует это сделать сейчас. Возможно, вы с этим плохо справляетесь. 

Также есть множество плагинов, чтобы проверить ваши показатели. Эти отчеты даже дают вам рекомендации.

 

Подборка новостей от SEJ и комментарии представителей Yoast

Google не может предоставить подробную информацию об обновлениях основного алгоритма

Анонс: Google не может предоставить конкретную информацию об обновлениях основного алгоритма, кроме как объявить, когда они будут выпущены.

У Google есть внутренняя информация, но он не может публиковать информацию.

Об этом стало известно в последнем выпуске подкаста Search Off The Record с Джоном Мюллером, Мартином Сплиттом и Гэри Иллисом из команды Google Search Relations.

Иллиес задается вопросом, какой смысл даже в объявлении основных обновлений, если они не могут дать никаких указаний, кроме того, что советуют людям ознакомиться с рекомендациями Google для веб-мастеров.

В подавляющем большинстве случаев все просто сосредоточено на рекомендациях, которые Google публикует в течение последних 20 лет.

Обновления ядра неизбежно окажут положительное влияние на одни сайты и отрицательное влияние на другие.

Если вы обнаружите, что рейтинг вашего сайта снизился после обновления ядра, это не означает, что вы публикуете плохой контент или что на вашем сайте есть что-то, что нужно исправить.

Дело в том, что другие сайты были «награждены» за публикацию лучшего контента. Например, статьи с большей глубиной или статьи, более релевантные конкретному запросу.

 

IndexNow обеспечивает обмен данными между поисковыми системами

Анонс: Протокол IndexNow обновляется с возможностью немедленного обмена данными между поисковыми системами.

Microsoft упрощает реализацию протокола IndexNow, обеспечивая одновременный обмен подтвержденными URL-адресами между поисковыми системами.

IndexNow запущен в октябре 2021 года как решение, помогающее веб-сайтам быстрее индексировать и обновлять свой контент в поисковых системах.

Это означает, что веб-мастерам просто нужно уведомить одну конечную точку API, так как все URL-адреса будут совместно использоваться всеми поисковыми системами, поддерживающими протокол IndexNow.

Microsoft Bing уже начал делиться URL-адресами из IndexNow с Яндексом и наоборот.

IndexNow создан Microsoft и Яндексом, но протокол имеет открытый исходный код и доступен для всех поисковых систем.

 

Можно ли доверять справочным документам Google?

Анонс: Справочные документы Google не всегда актуальны и иногда содержат устаревшие рекомендации. 

Google признает, что его справочные документы не всегда актуальны, и говорит, что стоит провести собственное исследование рекомендуемых передовых методов.

Эта тема обсуждается в последнем эпизоде ​​веб-серии Google SEO & Devs на YouTube, посвященной тому, можно ли доверять официальным справочным документам.

Мартин Сплитт из отдела по связям с разработчиками Google и Майкл Кинг, основатель и управляющий директор iPullRank, встречаются, чтобы обсудить, как документация Google может заставить разработчиков не доверять специалистам по SEO.

SEO-специалисты дают рекомендации разработчикам на основе информации из официальных документов Google.

Google стремится, чтобы эти документы были точными и заслуживающими доверия, но информация иногда отстает от того, что действительно работает в SEO, а что уже не актуально.

Конкретным примером, который они рассмотрели, является ситуация, возникшая в 2019 году, когда Google сообщил, что прекратил поддержку

rel="next" и rel="prev" за несколько лет до того, как сообщил поисковому сообществу.

Вместо того, чтобы сделать официальное объявление об этом, Google просто удалил документацию, связанную с rel="next" и rel="prev".

Только после того, как адвокат Google по поиску Джон Мюллер получил вопрос об этом в Twitter, кто-то из компании сообщил поисковому сообществу об этом изменении.

Некоторые SEO-специалисты и разработчики, возможно, пришли к такому выводу самостоятельно, заметив, что Google прекрасно понимает нумерацию страниц без использования rel="next" и rel="prev".

Это один из примеров, когда собственное исследование может помочь вам узнать, как работает поиск Google, а не полагаться исключительно на официальную документацию.

 

Рост DuckDuckGo падает по мере празднования важного события

Анонс: На DuckDuckGo было выполнено более 100 миллиардов поисковых запросов, но его годовой рост значительно замедляется.

DuckDuckGo отмечает рубеж в 100 миллиардов общих поисковых запросов, но годовой рост поисковой системы замедляется.

В объявлении в Твиттере DuckDuckGo подчеркивает тот факт, что число частных поисковых запросов превысило 100 миллиардов, отметив:

  • Ваша история поиска не была точкой данных
  • То, что вы искали, остается с вами
  • Вы признаете свое право на неприкосновенность частной жизни и решили его использовать.

Среднесуточный объем поиска DuckDuckGo вырос на 17% с января 2021 года по январь 2022 года.

Это самые низкие темпы роста DuckDuckGo за последние пять лет и резкое падение по сравнению с ростом, который наблюдался в 2020–2021 годах.

С января 2020 года по январь 2021 года среднесуточный объем поиска DuckDuckGo вырос на 73% .

В предыдущие годы он достигал более 50% роста.

Еще одно свидетельство снижения популярности DuckDuckGo

В январе прошлого года все признаки указывали на то, что популярность DuckDuckGo растет как никогда раньше.

Мало того, что объем поиска увеличился более чем на 50% по сравнению с прошлым годом, он также занял первое место в iOS App Store в категории «Утилиты».

DuckDuckGo даже попал в топ-10 в iOS App Store среди всех приложений.

В настоящее время он находится на 18-м месте в категории «Утилиты».

Что еще?

В прошлом году в это же время DuckDuckGo была мобильной поисковой системой № 2 в США. В этом году он уступил второе место Yahoo.

По всем параметрам DuckDuckGo теряет популярность.

Возможно, поисковой системе не хватает инноваций.

В прошлом году от DuckDuckGo не произошло никаких заметных событий.

Возможно, что конфиденциальность не очень беспокоит людей, когда они ищут информацию в Интернете.

Данные показывают, что существует ограниченное количество пользователей, которые достаточно заботятся о конфиденциальности, чтобы изменить свое поведение при поиске, и возможно, DuckDuckGo достиг большинства из этих людей.

Конфиденциальность также может быть помехой, когда речь идет о качестве результатов поиска.

 

Google изменяет гайд структурированных данных по рецептам

Анонс: Руководство Google по структурированным данным рецептов обновлено. Издателям рекомендуется обновить применение.

Структурированные данные рецепта — это информация, которую издатели передают поисковым системам, таким как Google, чтобы помочь им лучше понять контент. Структурированные данные также позволяют Google отображать контент привлекательным образом, привлекая внимание к рецептам.

Типичные результаты расширенного поиска рецептов:

  • Рекомендуемые рецепты
  • Карусель ведущих рецептов

Важно использовать достоверные структурированные данные. Отказ от использования правильных структурированных данных может привести к тому, что сайт потеряет право на показ в результатах  расширенного поиска рецептов и ​​последующую потерю трафика поисковых систем в пользу других сайтов, которые используют правильные структурированные данные.

Изменены три свойства структурированных данных рецептов

В документации Google указано, что они удалили свое руководство по указанию временного диапазона для свойств cookTime и prepTime.

Следующая формулировка удалена из рекомендации свойства cookTime:

«Вы можете использовать min и max в качестве дочерних элементов, чтобы указать диапазон времени».

Такая же формулировка была удалена из свойства prepTime:

Теперь Google поддерживает только точное время для свойств cookTime и prepTime, а также еще одно свойство, которое Google не задокументировал.

Диапазон времени больше не поддерживается.

 

Google рассматривает возможность снижения скорости сканирования веб-страниц

Анонс: Google рассматривает возможность сокращения частоты сканирования веб-страниц в целях экономии вычислительных ресурсов.

Google может уменьшить частоту сканирования веб-страниц, поскольку все больше заботится об устойчивости сканирования и индексирования.

Эта тема обсуждается командой Google Search Relations, в которую входят Джон Мюллер, Мартин Сплитт и Гэри Иллиес.

Вместе в последнем выпуске подкаста Search Off the Record они обсуждают, чего ожидать от Google в 2022 году и далее.

Среди тем, которые они затрагивают, — сканирование и индексирование, которые, по словам SEO-специалистов и владельцев веб-сайтов, они стали меньше видеть за последний (2021) год.

Это будет ключевым направлением для Google в этом году.

Вот что это будет означать для вашего веб-сайта и его эффективности в результатах поиска.

Устойчивость сканирования и индексирования

Google хочет уменьшить воздействие на окружающую среду посредством ненужного веб-сканирования. Например, веб-страниц, на которых не было последних обновлений.

Как Google сделает сканирование более устойчивым?

Далее Иллиес объясняет, что сканирование веб-страниц можно сделать более устойчивым, сократив количество обновлений.

Существует два типа сканирования Googlebot: сканирование для обнаружения нового контента и сканирование для обновления существующего контента.

Google рассматривает возможность сокращения сканирования для обновления контента.

Такой веб-сайт, как Wall Street Journal, постоянно обновляет свою домашнюю страницу новым контентом, поэтому он заслуживает большого количества обновлений.

Тем не менее, WSJ вряд ли обновляет свою страницу «О нас» так часто, поэтому Google не нужно постоянно обновлять сканирование этих типов страниц.

Что означает снижение скорости сканирования для вашего сайта?

Если Google воплотит эту идею в жизнь, это не повредит вашему веб-сайту. Больше сканирования не означает лучший рейтинг.

Более того, идея состоит в том, чтобы узнать, какие страницы нуждаются в обновлении, а какие нет. Это означает, что страницы, которые вы чаще меняете, будут продолжать обновляться и обновляться в результатах поиска.

 

Google дает сайтам больше контроля над индексацией с помощью нового тега

Анонс: Google внедряет новый тег, который дает сайтам больше контроля над контентом, который индексируется в результатах поиска.

Новый тег robots, называемый indexifembedded, позволяет веб-сайтам указывать Google, какой контент следует индексировать в результатах поиска.

С помощью этого тега вы можете указать Google индексировать контент на странице только в том случае, если он встроен с помощью iframe и аналогичных HTML-тегов.

Тег indexifembedded переопределяет тег noindex.

Это означает, что вы можете использовать noindex, чтобы весь URL-адрес не попадал в результаты поиска, и применять тег indexifembedded, чтобы сделать определенный фрагмент контента индексируемым, когда он встроен в другую веб-страницу.

Google заявляет, что создал этот тег, чтобы исправить проблему, затрагивающую издателей СМИ:

«... хотя они могут захотеть, чтобы их контент был проиндексирован, когда он встроен на сторонние страницы, они не обязательно хотят, чтобы их медиа-страницы были проиндексированы сами по себе».

Когда использовать тег Indexifembedded

Этот новый тег robots не применяется ко многим издателям, поскольку он предназначен для контента, который имеет отдельный URL-адрес для встраивания.

Например, у издателя подкаста могут быть веб-страницы, посвященные каждому выпуску подкаста, каждая из которых имеет собственный URL-адрес.

Затем будут URL-адреса, указывающие непосредственно на медиа, которые другие сайты могут использовать для встраивания подкаста на одну из своих страниц.

Такой URL-адрес можно использовать при вставке эпизода подкаста в качестве источника упоминания.

Создатель подкаста может не захотеть индексировать URL-адреса мультимедиа в результатах поиска. Раньше единственным способом не допустить их в поиск Google был тег noindex.

Однако тег noindex препятствует встраиванию контента в другие страницы во время индексации.

Теперь, с тегом indexifembedded, издатели имеют больше контроля над тем, что индексируется.

Тег indexifembedded можно использовать с тегом noindex, и он переопределит его, когда URL-адрес с noindex встроен в другую страницу через iframe или аналогичный тег HTML.

Как использовать тег Indexifembedded

Существует два способа использования этого нового тега robots.

Чтобы ваш контент индексировался только тогда, когда он встроен в другие страницы, добавьте тег indexifembedded в сочетании с тегом noindex.

Посмотрите пример того, как будет выглядеть код на изображении ниже:

Кроме того, вы можете указать тег в заголовке HTTP.

В настоящее время только Google поддерживает тег indexifembedded.

Google заявляет, что невозможно предотвратить сбои в работе

АнонсGoogle не может полностью предотвратить сбои в поиске, но компания будет больше сообщать о проблемах, когда они обнаруживаются.

Эта тема обсуждается командой Google Search Relations, в которую входят Джон Мюллер, Мартин Сплитт и Гэри Иллиес.

Вместе в последнем выпуске подкаста Search Off the Record они обсуждают, чего ожидать от Google в 2022 году и далее.

Вы можете ожидать больше сообщений от Google при обнаружении сбоев и ошибок.

Google начал больше говорить об отключениях в прошлом году, что привело к восприятию их как более частого явления.

«Мы объявим об отключениях, даже если они еще не были замечены извне или, например, были замечены в определенном географическом регионе».

 

Значок Google Core Web Vitals, скорее всего, не появится

АнонсИдея Google добавить значок в результаты поиска рядом с веб-страницами, которые соответствуют всем трем показателям Core Web Vitals, скорее всего, не будет реализована.

Google заявляет, что не планирует размещать значок Core Web Vitals в результатах поиска после того, как предложил эту идею, когда впервые были представлены эти метрики.

Об этом заявил советник Google по поиску Джон Мюллер во время видеовстречи Google Search Central SEO office-hours в рабочее время, записанной 21 января.

 

Google анонсирует API для проверки URL-адресов Search Console

Анонс: Google расширил доступ к консоли поиска с помощью API инструмента проверки URL, который расширяет функциональные возможности многих инструментов SEO.

Google объявил о запуске нового API проверки URL-адресов, который позволяет внешнему приложению взаимодействовать с Google Search Console и предоставлять данные проверки URL-адресов. Новый доступ к API поможет SEO-специалистам и издателям обнаруживать больше проблем и с большей легкостью устранять проблемы.

Search Console API расширяет возможности использования данных

Аббревиатура API расшифровывается как Application Programming Interface. API можно рассматривать как мост, который позволяет двум программам взаимодействовать друг с другом.

Например, такие инструменты, как Screaming Frog, могут использовать API для подключения к Google Search Console и использовать эти данные для автоматизации процесса получения информации.

Подключение Screaming Frog к Search Console осуществляется через вкладку Configuration, затем API > Google Search Console .

В настоящее время API позволяет Screaming Frog (и другим приложениям) собирать такие данные, как клики, показы, CTR и позиция. API также можно использовать для обнаружения новых URL-адресов для сканирования и добавления потерянных URL-адресов в отчеты об аудите сайта.

Google предложил примеры того, как можно использовать этот конкретный доступ к API:

  • «Например, проверка на наличие различий между объявленными пользователями и выбранными Google каноническими ссылками  или отладка проблем со структурированными данными на группе страниц.
  • Разработчики CMS и плагинов могут добавлять информацию на уровне страницы или шаблона, а также текущие проверки существующих страниц. Например, отслеживание изменений ключевых страниц с течением времени для диагностики проблем и определения приоритетности исправлений».

Квота использования

Google отметил, что существует квота использования в 2000 запросов в день и ограничение скорости в 600 запросов в минуту.

Тем не менее, новый API-интерфейс инструмента проверки URL-адресов открывает доступ к новым способам отслеживания прогресса SEO-оптимизации веб-сайта, помогает выявлять проблемы и находить решения. Новые функции должны начать появляться в инструментах и ​​плагинах в ближайшем будущем.

 

Google меняет более 61% title-тегов

Анонс: Недавнее исследование Zyppy.com проанализировало более 80 000 тегов заголовков с 2370 сайтов, чтобы определить, сколько тегов заголовков сайта использовалось в результатах поиска. 

Заголовки страниц оказывают большое влияние на CTR, потому что они предоставляют важный контекст для поисковых систем, но недавнее исследование показывает, что Google переписывает заголовки страниц более чем в 60% случаев.

Дальнейшее изучение показало, что вероятность перезаписи тега заголовка зависит от конкретных факторов. Цель Google состоит в том, чтобы предоставить поисковикам лучшие теги заголовков, чтобы предоставить контекст для того, что содержит веб-страница. Если тег заголовка не подходит, алгоритм Google меняет его.

Это часто расстраивает владельцев веб-сайтов и специалистов по SEO, которые тратят много времени на создание идеального тега title. Изменения Google варьировались от одного слова до полной перезаписи тега заголовка.

Факторы для изменения заголовка страницы

Исследование показало, что определенные факторы увеличивают вероятность того, что Google перепишет тег заголовка, но это не означает, что соблюдение этих правил является гарантией.

Слишком короткие или слишком длинные заголовки

Идеальная длина заголовка страницы составляет от 50 до 60 символов (которые менялись только в 39–42 % случаев). Если заголовок страницы слишком длинный, Google урезает его в результатах поиска. 

Из более чем 2370 проанализированных веб-сайтов Google переписал более 95 процентов чрезвычайно коротких и длинных тегов заголовков.

Поисковик изменил заголовок страницы с квадратными скобками в 77,6% случаев и полностью удалил слова между скобками в 32,9%.

С круглыми скобками дела обстояли намного лучше — 61,9%, и только 19,7% команды удалили слова между скобками.

Разделители заголовков

Разделители заголовков, такие как двоеточие, вертикальная черта и тире, являются распространенными способами разбить заголовки, но Google не является поклонником вертикальной черты. Исследование показало, что он заменял или устранял вертикальную черту в 41% случаев, но удалял тире только в 19,7% случаев.

Замена вертикальной черты чаще всего заключалась в удалении трубы и замене ее на тире.

Другие факторы

Google — это информация, поэтому использование слишком большого количества ключевых слов, одинаковых заголовков для нескольких страниц и ненужного использования торговых марок часто приводило к тому, что Google вносил изменения.

Можно ли запретить Google вносить изменения?

SEO-специалисты и владельцы веб-сайтов часто создают определенные заголовки страниц и хотят, чтобы они отображались как есть, но нет никаких гарантий, что Google не изменит их. В недавней ветке Twitter адвокат Google по поиску Джон Мюллер заявил, что маловероятно, что механизм, ограничивающий Google от изменения метаданных, станет доступным.

Однако есть свет в конце туннеля метаданных. Теги H1 являются важным фактором ранжирования для Google, и сопоставление H1 с заголовком, даже с часто изменяемыми факторами, такими как вертикальная черта, снизило вероятность перезаписи до 20,6%.

Читайте ещё больше интересных статей:

Обновлено 26 июля 2023