Главная Кейсы Услуги О нас Блог Контакты Партнерам
+38 (068) 477-477-0

Фильтры Google и факторы ранжирования в 2020 году

 

Иногда, при SEO-продвижении бывает падение позиций сайта и проседание трафика, а то и полное исчезновение из поиска. В таком случае очень вероятно, что сайт попал под санкции и необходимо проверить это.

Санкции (фильтры) поисковых систем - это меры, принятые по отношению к недобросовестным сайтам, в результате чего сайт получает снижение ранжирования или исключение участия в поисковой выдаче. Фильтры являются частью поискового алгоритма.

Выделяют бан и пессимизацию сайтов.

Под “недобросовестными”

Бан сайта в поиске - это полное исключение сайта из поисковой выдачи.

Пессимизация сайта в поиске - это снижение позиций сайтов в поисковой выдаче.

В данной статье мы рассмотрим фильтры поисковой системы Google - ручные и автоматические.Также рассмотрим причины попадания под санкции и что делать, если сайт попал под фильтр.

Виды фильтров Google: ручные и автоматические

Ручные санкции Google - накладываются модераторами в ручном режиме при поступлении сигналов от алгоритмов или жалоб от пользователей.

Ручные санкции можно отследить в панели Search Console в разделе “Меры, принятые вручную”:

GSC Меры, принятые вручную

Автоматические санкции - не отображаются в Search Console и являются следствием поисковых алгоритмов.

Автоматические фильтры Google

На сегодняшний день многие фильтры (обновления) Google являются частью общего поискового алгоритма и в 2020 году их стало не так просто определить, признаки стали более размытыми.

Если сайт попал под автоматический фильтр, никакого оповещения не будет. Заподозрить фильтр можно по снижению позиций или выпадению из выдачи вовсе.

Но для начала важно отличить фильтр от других причин потери позиций:

  • Выпадение страницы сайта из индекса. Проверить можно если ввести полный адрес страницы в строку поиска.
  • Изменение алгоритма ранжирования, которое затронуло многие сайты по какому-то признаку. Например, снижение позиций только медицинских сайтов. Проверить можно сравнив ТОП выдачи до и после апдейта. Если из ТОПа выпал не только ваш сайт, но и сайты конкурентов, то это скорее всего не фильтр. Но если была потеря позиций только у вашего сайта - то очень вероятен фильтр.

Ниже рассмотрим историю и признаки наиболее знаковых апдейтов (фильтров) Google.

Анонс на 2021: Обновление фактора Page Experience с метриками Core Web Vitals

Для начала, поговорим о новинках.

Обновление фактора ранжирования Page Experience анонсировано на 2021 год. О новом обновлении Google сообщил 28 мая 2020 года.

Его суть - анализ удобства сайта после начала загрузки. Речь идет не совсем о скорости загрузки, а о том “как” сайт загружается, насколько он отзывчив и как быстро пользователи могут начать взаимодействовать с сайтом.

Суть обновления в том, что в общий фактор теперь добавлены три метрики - Core Web Vitals.

Данные метрики существовали давно (за исключением CLS - это относительно новая метрика), но теперь Google будет более тщательно за ними следить и учитывать в ранжировании.

Google Core Web Vitals

Core Web Vitals - это набор реальных, ориентированных на пользователя показателей, которые количественно определяют ключевые аспекты взаимодействия с пользователем. Они измеряют такие параметры удобства использования в Интернете, как время загрузки, интерактивность и стабильность содержимого при его загрузке (например, чтобы пользователь случайно не нажал кнопку, когда она перемещается под его пальцем).

Итак, эти метрики включают:

  • Largest Contentful Paint (LCP) - отрисовка самого крупного контента.
    • Отлично, если скорость отрисовки до 2,5 секунд.

    • Оптимальный уровень скорости отрисовки - от 2,5 до 4 секунд.

    • Медленнее 4 секунд - это плохо и будет учитываться поисковиком не в вашу пользу.

  • First Input Delay (FID) - задержка после первого ввода. Обозначает время от первого взаимодействия пользователя с сайтом (клик по кнопке, ссылке, и др.) до фактической реакции браузера на это действие.
    • Отлично, если этот промежуток длится до 0,1 секунды.

    • Оптимально - от 0,1 до 0,3 секунды.

    • Медленнее, чем 0,3 секунды - плохо.

  • Cumulative Layout Shift (CLS) - совокупное смещение макета. Обозначает стабильность загрузки графики и насколько часто присутствует сдвиг макета от первоначальной области просмотра. Оптимальный показатель - от 0,1 до 0,25. Все, что больше 0,25 - это плохо и требует улучшения. Метрику CLS теперь можно измерить, например, в инструменте Google PageSpeed Insights.
CLS в инструменте Google PageSpeed Insights

Как сообщает Google, обновлены инструменты для разработчиков:

“Чтобы помочь, мы обновили популярные инструменты разработчика, такие как Lighthouse и PageSpeed ​​Insights, чтобы отображать информацию и рекомендации Core Web Vitals, а в Google Search Console есть специальный отчет, который помогает владельцам сайтов быстро определять возможности для улучшения.”

Google Search Console отчет CLS

Увидеть в панели Google Search Console предупреждения по данным метрикам можно в разделе “Основные интренет-показатели: https://search.google.com/search-console/core-web-vitals

GSC метрики скорости загрузки

Google пока не наказывает за несоответствие данным метрикам, но выводит предупреждения в консоли и предоставляет возможность вебмастерам до 2021 года подтянуть эти показатели.

Пингвин (Penguin)

24 апреля 2012 года был запущен апдейт “Пингвин”, целью которого была борьба с нечестным ссылочным продвижением.

Это могли быть - нерелевантные ссылки, переспам в анкорном тексте, откровенный спам и явно неестественные ссылки.

В 2016 году алгоритм обновили и с тех пор он стал частью ранжирования. С этого года “Пингвин” не наказывает за спамные ссылки, а просто обесценивает их.

Алгоритм действует на уровне страницы, а не сайта в целом. Поэтому, при наличии спамных ссылок, потерять позиции может только конкретная страница.

Представители Google рекомендуют использовать инструмент Disavow для восстановления после “Пингвина”. Мы же рекомендуем использовать инструмент постоянно для “профилактики”, так как ссылки на сайт могут появляться и без нашего участия.

От данного алгоритма могут исходить как автоматические санкции, так и ручные.

Ручные санкции “Пингвин”

Если сайт получит санкции в ручном режиме, это отобразится в Google Search Console в виде сообщения, что сайт заподозрен в применении искусственных входящих ссылок. Далее будет падение позиций в поиске.

Причины

Основные причина попадания под ручной фильтр “Пингвин” - переспам в анкорах ссылок: коммерческие запросы и другие ключи.

Профилактика

Чтобы не попасть под фильтр “Пингвина” нужно соблюдать соотношение в типах ссылок:

  • больше всего должно быть безанкорных ссылок - типа “http://site.com” (до 60-70%),
  • затем естественные вхождения и брендовые запросы - “тут”, “на сайте” “название компании”... и т.д.,
  • и на самом последнем месте - анкорные ссылки (до 15-20% от общего количества входящих ссылок).

Как выйти:

  1. Если есть сообщение в Google Search Console, отправьте запрос на пересмотр. В начале, уточните какие именно ссылки стали причиной санкций?
  2. После этого вы получите ответ с примерами ссылок. На основании примеров, проанализируйте последние полученные ссылки (выгрузить можно прямо из консоли).
  3. Проверить качество ссылок можно с помощью инструмента Checktrust (условно-бесплатный). Оптимально - ориентироваться на показатель “Спам” - должен быть не выше 30-40, а если он стремится к 100 - значит однозначно удаляем такую ссылку.

В идеале - смотреть и на показатель “Траст” - должен быть не ниже 20-30.

  1. Из отобранных ссылок составьте файл txt с некачественными ссылками и загрузите в Disavow Tool.
  2. Подождите 1-2 недели для переиндексации ссылок.
  3. Отправьте повторный запрос на пересмотр с отчетом о ваших действиях. Уточните, все ли сделано или можно ещё что-то предпринять?
  4. Обычно в течение месяца вы получите ответ. В случае негативного ответа, повторите все шаги заново. Снятие фильтра может быть после нескольких пересмотров.

Панда (Panda)

Оценка качества сайта и его релевантности - основная задача “Панды”.

Алгоритм “Панда” появился в 2011 году. Тогда SEO-специалисты обратили внимание, что многие сайты начали терять позиции и выпадать из поиска. Было замечено, что у таких сайтов были малоинформативные и скучные тексты - “простыни”. Часто в текстах был перебор с количеством ключевых слов, выделенных жирным шрифтом.

В 2016 году фильтр “Панда” стал сигналом ранжирования и вошел в общий алгоритм, как и “Пингвин”.

“Панда” распознает сигналы отдельных страниц сайта и распространяет их на весь сайт, в отличие от “Пингвина”, который наказывает только отдельные страницы. Если проблем на сайте много - может выпасть весь сайт. Но если основная часть страниц хорошего качества, то сайт просядет по части запросам.

Причины

Основные причины попадания под “Панду” - спам (нерелевантность), переоптимизация ключами, неуникальный контент.

Также “Панда” обращает внимание на поведенческие факторы, как критерий оценки контента: время проведенное на сайте и глубина просмотра.

Профилактика:

  • Только оригинальный контент, учитывая уникальность в пределах самого сайта. Уникальность - не ниже 90-100%.
  • Текст статьи - информативный, дает полное раскрытие темы, не содержит грамматических и других ошибок.
  • Релевантное содержание - заголовок страницы должен полностью характеризовать содержимое.
  • Оформление текста не однообразно, но структурировано. Максимальное использование разных типов оформления и подачи информации - текст, списки, таблицы, изображения, колонки, цитаты, видео… и.т.д.
  • Отсутствие нетематических выделений по тексту.
  • Грамотная перелинковка: широкий анкор-лист, равномерное распределение ссылок по страницам, ссылки должны быть “к месту”, желательно, не больше пяти ссылок на страницу.
  • Расположение всей важной информации в верхней части страницы. Если пользователь зайдет на сайт и увидит только логотип и нетематическую рекламу - ждите фильтра.
  • Минимальное использование исходящих ссылок. Использовать только тематические ссылки (которые подходят тематике текста и сайта в целом) и на авторитетные ресурсы. Остальные - закрывать тегом “nofollow”.
  • Удержание пользователей на сайте за счет интересного контента - чем ниже показатель отказа, тем лучше.
  • Отсутствие пользовательского спама - нетематических комментариев, рекламы и т.д.
  • Регулярное добавление новой полезной информации на сайт.

Дополнительные факторы влияния

  • Техническая часть сайта. Если технических ошибок мало - улучшается скорость загрузки, что позитивно влияет на поведенческие факторы.
  • Юзабилити и адаптация под мобильные устройства. Навигация по сайту - удобная, блоки расположены в нужных местах, элементы сайта (кнопки, поля ввода…) заметны и решают задачу пользователей, правильное использование акцентов, структурирование, грамотное использование цветов и шрифтов.

Как выйти

Если сайт попал под фильтр, проанализируйте вышеперечисленные пункты. В первую очередь - удалите/перепишите неуникальный контент, уберите переспам запросов в текстах и проверьте другие факторы.

После проделанных работ - отправьте сайт на повторное сканирование. Если причина будет устранена, после очередного “апдейта” Google сайт восстановится. В среднем, апдейты происходят раз в месяц. Ожидать восстановления можно от одного до нескольких месяцев.

Если спустя время ситуация не улучшится - обратитесь с письмом в техническую поддержку Google с описанием всех ваших действий и попросите модераторов проверить сайт.

Колибри (Calibri)

Этот фактор ранжирования появился в 2013 году. Он отвечает за релевантность сайта, его цель - дать пользователям максимально нужную информацию.

“Колибри” не является фильтром, так как не наказывает, но поднимает выше в позициях более подходящие сайты.

В его алгоритмах заложен узконаправленный анализ ключевых слов, работа с низкочастотными запросами и синонимами - он тонко ощущает потребность пользователя.

Например, “Колибри” понимает запрос “хочу обед в 12 часов”, связывает его с запросом “доставка еды” и выдает релевантные сайты.

Как понравится Колибри:

  • Закладывать в контент максимально возможные ответы на разные вопросы пользователей; Широко раскрывать тему и делить вопросы на подтемы.
  • Писать живым языком, ориентируясь на язык аудитории. Писать без спама.
  • Употреблять синонимы, близкие к теме запросы, сленг и даже жаргоны в пользу продвигаемых и коммерческих запросов.
  • Указывать максимум справочной информации.
  • Указывать контактные данные по тем или иным вопросам.

Песочница (Google Sandbox)

Sandbox (Песочница) - это скорее “мифологический” фильтр, т.к. по официальной позиции Google - такого фильтра не существует.

Этот миф появился в 2004 году. Суть в том, что молодые сайты не сразу попадают в ТОП, им нужно какое-то время “пересидеть в песочнице”.

Причина этого, скорее всего, в том, что молодой сайт ещё недостаточно авторитетен и ему нужно время для раскрутки.

Однако, многие оптимизаторы - приверженцы “фильтра Песочницы”, обращают внимание, что часто молодой сайт не выходит сразу в ТОП и оценивают выход из Песочницы в течение одного года.

Они рекомендуют раскручивать сайт: создавать полезный контент, наращивать качественную ссылочную массу и улучшать поведенческие факторы.

В любом случае - эти действия необходимы для всех сайтов, независимо от причины - для выхода из-под фильтра или для развития.

DMCA-фильтр (Pirate)

Данный фильтр DMCA “Пират” может быть применен к сайтам, на которые поступали многочисленные жалобы по поводу нарушения авторских прав - например, дублирования контента. В таком случае Google может полностью исключить сайт из поиска.

DMCA - закон об авторском праве в цифровую эпоху (законодательство США).

DMCA-жалобу могут подать в Google пользователи, столкнувшиеся с плагиатом их авторского контента (текста, изображения, видео и др.) и размещенного в сервисах Google либо на других сайтах.

Если контент размещен на другом сайте, то по ссылке пользователи могут подать жалобу.

В результате, Google исключит из поиска страницу сайта, на которой размещен контент.

Но если таких жалоб будет много от разных пользователей - возможно применение фильтра на сайт целиком.

Фред или «Google Maccabees»

Google Maccabees (или в простонародье - “Фред”) - появился в конце 2017 года.

Его цель, как и многих других фильтров - предоставление релевантного контента.

Сейчас Фред не является фильтром, а входит в часть общего алгоритма.

Причины

Фред ранжирует сайты с упором на следующие факторы:

  • некачественные страницы, оптимизированные под низкочастотные запросы;
  • сайты не для людей, а для поисковиков - водянистые, переоптимизированные тексты;
  • обилие рекламы и обманчивая реклама с целью монетизации сайта (например, кнопка загрузки является ссылкой на другой ресурс)
  • некорректное отображение сайта в мобильной версии.

Результат и профилактика

Узнать, что вы попали под фильтр можно по ощутимому падению позиций.

Чтобы не попасть под санкции нужно готовить контент для людей, а не для роботов, не увлекаться рекламой и копированием чужого контента.



Социтирование (Co-citation linking filter)

“Социтирование” - это санкции, которые применяются если у сайта плохие ссылочные связи - причем как в одну, так и в другую сторону.

Имеется в виду:

  • сайт имеет исходящие ссылки на некачественные или нетематические сайты;
  • если у сайта входящие ссылки - некачественные или от нетематических доноров;

Чтобы не попасть под санкции:

  • размещайте ссылки только на качественные сайты смежной тематики;
  • не размещайте слишком много ссылок, а также, по возможности, закрывайте их тегом nofollow.
  • получайте входящие ссылки только с качественных и тематических сайтов;
  • периодически проводите ревизию ссылок, некачественные ссылки загружайте в Disavow Tool.

Время загрузки (Speed Update)

Google Speed Update - это обновление алгоритма от 2018 года. Это не фильтр, а фактор ранжирования, от которого могут пострадать мобильные версии сайтов в мобильном поиске (до этого момента скорость влияла только на десктопную выдачу).

Никакого оповещения о санкциях нет, а действия данного апдейта сугубо алгоритмические. Он оценивает скорость каждой страницы, а не сайта в целом. Если конкретная страница очень медленно загружается, то высока вероятность снижения ее рейтинга в поиске.

Чтобы этого не произошло, рекомендуется периодически проверять скорость и подтягивать проблемные показатели, например с помощью инструмента PageSpeed Insights.

Mobile-first индекс

Этот фактор ранжирования появился с 1 июля 2019 г. и его суть - это приоритет мобильного контента при индексировании. Если сайт не адаптирован под мобильные устройства, то он теперь снижается в рейтинге поисковой выдачи.

Требования для сайтов:

  • Иметь мобильную либо адаптивную версию сайта.
  • Скорость сайтов на мобильных устройствах должна быть не ниже среднего, чем выше - тем лучше.
  • Не забыть предоставить для бота Google доступ к индексированию мобильных версий.
  • Мобильная версия должна содержать тот же контент, что и десктопная (не урезать функционал и информацию).
  • Одинаковые с десктопной версией метатеги, alt, заголовки и структурированные данные.

Битые ссылки (Broken Link Filter)

Если у сайта относительно немного битых ссылок, ничего страшного (главное, чтобы они отдавали код ответа 404). Такие страницы просто будут недоступны в индексе.

Но если сайт имеет большое количество битых ссылок - это уже сигнал для применения фильтра и сайт упадет в позициях выдачи. Чтобы этого не случилось, нужно:

  • периодически проводить техаудит и выявлять битые ссылки (есть множество программ, например - Screaming Frog).
  • Проработать битые ссылки - либо создать на их месте новый контент, либо сделать перенаправление, либо удалить их из перелинковки сайта.

Много внешних ссылок (Too many links at once Filter)

Это устаревший фильтр, роль которого теперь выполняет “Пингвин”. Его суть была в следующем: если у сайта появилось слишком много входящих ссылок за короткий промежуток времени, то к нему применялись санкции:

  • игнорирование существующих и новых ссылок при ранжировании;
  • заметное падение позиций в поиске.

Чтобы не получить наказание необходимо получать новые ссылки равномерно по времени, плавно наращивая ссылочную массу.

Ссылочная помойка (Links)

В зоне риска сайты, которые продают исходящие ссылки, особенно, если у них более пяти нетематических ссылок с одной страницы.

Google наказывает такие сайты потерей позиций, выпадением страниц из индекса.

Чтобы не попасть в зону риска нужно:

  • использовать максимально тематические ссылки, которые к месту в тексте.
  • закрыть исходящие ссылки тегом rel=nofollow.

Меры, принятые вручную

Спам в микроразметке

Санкции за нарушение правил микроразметки могут поступать вручную, либо автоматически.

После наложения фильтра, владельцу сайта приходит сообщение в консоли Search Console о том, что он разместил спамный нерелевантный контент, либо содержимое, нарушающее требования к качеству.

В итоге, у сайта исчезают расширенные результаты поиска на основе структурированных данных.

Во избежание фильтра следует устранить и не допускать ошибок в разметке.

Взлом сайта

Это не фильтр, а скорее сообщение. Если сайт был взломан, то в Search Console появится уведомление об этом. В результате сайт будет понижен в выдаче.

После работ по восстановлению сайта запросите повторную проверку сайта.

Спам от пользователей

Под санкции попадают сайты у которых присутствует спам в комментариях, созданный пользователями. Спам может быть:

  • в блоге,
  • на форуме,
  • в комментариях к статьям,
  • в профилях,
  • на страницах сайта.

Проверьте сайт на наличие такого контента и, когда устраните проблему - обратитесь в Google с запросом на пересмотр сайта.

Искусственные ссылки

Наказание может прийти за искусственные входящие или исходящие ссылки.

  • Если у сайта искусственные ссылки на сайт (входящие), то действует ручной алгоритм “Пингвин” (действия описаны выше).
  • Если сайт разместил у себя исходящие покупные ссылки, то появится сообщение в Google Search Console. После устранения фактора следует отправить запрос на повторную проверку.

Переоптимизация и скрытый текст

Наказываются те сайты, у которых есть скрытый текст или он чрезмерно оптимизирован под поисковые запросы.

Текст должен быть открыт не только для поисковых систем, но и для пользователей.

Профилактика и снятие:

  • В Search Console воспользуйтесь функцией “Инструмент проверки URL” и просканируйте страницу, чтобы увидеть, какой текст виден боту, но не виден пользователям.
  • Проверьте - нет ли скрытого текста, который сливается с фоном сайта?
  • Нет ли текста, скрытого CSS?
  • Удалите или измените данный текст, чтобы он был доступен пользователям.
  • Проверьте текст на переоптимизацию и устраните избыток запросов.
  • Отправьте Google запрос на повторный пересмотр сайта.

Замаскированные изображения

Применяется данная санкция к изображениям в поиске Google, если они не соответствуют размещенным на сайте. В итоге - изображения исключаются из поиска по картинкам.

Что проверить:

  • убедитесь, что изображения в поиске совпадают с изображениями на сайте - не закрыты блоками, нет переадресации при клике “перейти на источник”, нет битых ссылок,
  • убедитесь, что страница содержит данное изображение при клике по ссылке из поиска “просмотреть изображение”.

Исправьте ошибки и отправьте сайт на повторную проверку в Google.

Скрытая переадресация или замаскированные страницы

Наказание применяется, если у вайта страницы из поиска не соответствуют страницам на сайте. Это бывает в случае:

  • есть скрытый текст на сайте (детали - выше в статье).
  • присутствуют перенаправления по JavaScript;
  • на сайте есть платный контент, который не размечен специальной микроразметкой.
  • для мобильных пользователей и для десктопа одна и та же ссылка ведет на разные ресурсы.

Проверьте и устраните эти факторы, а после - отправьте запрос на проверку сайта.

Неинформативное бесполезное содержание

Под данные санкции подпадают:

  • сайты у которых множество партнерских страниц;
  • сайты с неоригинальным контентом;
  • сайты-дорвеи;
  • сайты с автоматически генерируемым содержимым.

Устраните найденные факторы и отправьте запрос на проверку сайта. В случае неустранения - у сайта есть шанс выпасть из поиска частично или полностью.

AMP-версия не соответствует канонической

Если AMP-версия отличается от канонической, то поисковик может выдавать в поиске только каноническую страницу.

Основные правила:

  • Содержимое и функционал AMP-версии должен быть идентичен канонической версии.
  • Страницы должны быть визуально похожими. Текст может незначительно отличаться формулировками, не теряя при этом общей сути.
  • Страницы одинаково выглядят для поисковика и пользователей.
  • Файл robots.txt не должен отличаться и блокировать важные ресурсы.

Учитывайте эти рекомендации и тогда санкции вам не страшны.

Заключение

Надеемся, что теперь вы будете начеку и в будущем вам не придется применять меры по выходу из-под фильтров. Но, на случай подозрения о санкциях, вы можете добавить в закладки эту статью, чтобы пройтись ещё раз и устранить негативные факторы.

Комментарии

Нет ни одного комментария

Обсудить проект
Что делаем дальше:
  • Мы свяжемся с вами в течение нескольких часов
  • Подробно обсудим текущую ситуацию по вашему сайту
  • Подготовим детальный план развития сайта
  • Совместно утвердим стратегию, подпишем договор и приступим к работе
Расскажите нам о своем проекте
Что вас интересует?
Спасибо!
Ваша заявка была отправлена!

В ближайшее время наш менеджер с вами свяжется!


Мы вам перезвоним
Telegram WhatsApp