Сегодня поговорим о проблеме, не так давно затронувшей большое количество не только вебмастеров, работающих с коммерческими сайтами, но и владельцев обычных блогов. Что же произошло? Давайте обсудим.
Релиз Аркады от CatAffs: лови хайп и лей на чистую базу!
19 октября стало известно, что поисковая система Google запустила обновление в ранжировании страниц под названием Google October 2022 Spam Update. Обновление было завершено 21 октября, и уже в следующие несколько дней вебмастера заполнили форумы множеством гневных сообщений, в которых говорили о массовой потере трафика.
Напомним, что предыдущая версия вышла в ноябре 2021 года, процесс апдейта длился 8 дней.
Скриншот в сообщении одного из пользователей форума searchengines:
А это анонс обновления на официальном Твиттер-аккаунте Google Search Central 19 октября:
Исходя из сообщения выше, обновление было выпущено с целью борьбы с сайтами, нарушающими политику Google. А именно — со «спамными» сайтами. В самой компании так и не сообщили, что конкретно учитывает новый алгоритм при проверке ресурсов: контент, ссылки или же связь сайта со спамом в целом.
Все ли так однозначно и почему очень много, по словам вебмастеров, «белых» сайтов попали под санкции поисковой системы?
Главная причина потери трафика после обновления — резкое падение страниц сайтов в поисковой выдаче Google. Иногда из топ-10 в топ-100. Сеошники также отмечают, что ГЕО и тематика не имеет значения, алгоритм повлиял на самые разные проекты. Все же, некоторые пишут о возврате позиций своих сайтов, но случаи — единичны, а причины — неизвестны.
Ощутили ли вы последствия апдейта Google October 2022 Spam Update? Сильно ли уменьшился объем трафика?
Вы знаете, я смотрела немного наперед: перешла с количества на качество в обоих направлениях SEO — и с ссылками, и с контентом. Это реально новый для меня уровень. Как уже многократно писала в своем канале, стала делать сбалансированные статьи и по редакторской работе, и по SEO. Давала свободу написания нативным копирайтерам, которые хорошо разбираются в нише — и они делали все очень круто. Именно поэтому, мне кажется, после апа сайты не просели, а наоборот пошли вверх. Трафик, соответственно, не уменьшился, а увеличился.
К счастью, Spam Update прошел для нас без каких-либо видимых проблем. Для точности данного утверждения перед ответом на вопросы проанализировали позиции по всем проектам, находящимся в работе.
Мы все-таки в большинстве своем работаем под обе поисковые системы, поэтому использовать спам не приходится, так как в Яндексе он не даст должного эффекта. Тексты оптимизируются точечно и индивидуально. Ссылки закупаются минимально необходимыми для продвижения объемами с перерывами для качественного отслеживания каждой итерации закупки. Ну а черные методы работы мы не использовали изначально.
Продвигаемые мной сайты как в рунете, так и англоязычном интернете практически не пострадали. Есть какие-то изменения позиций и трафика, но это все в рамках обычной динамики. И я за годы работы в SEO выработал определенные принципы продвижения, соблюдение которых позволяет снизить риск падений трафика. Те способы, которые используются и позволяют безопасно продвигать сайт, дают хороший результат и позволяют не особо зависеть от апдейтов. Часто я даже не наблюдаю никаких изменений несмотря на то, что выходит один или несколько апдейтов. Т. е. на протяжении месяцев или лет сайты могут себя нормально чувствовать.
И одна из моих стратегий в этом плане — снизить зависимость от поискового трафика на продвигаемых сайтах. Я стараюсь привлекать траф не только из Гугла, но и из социальных сетей, мессенджеров и YouTube. Такая стратегия позволяет не зависеть от Гугла.
Предполагаемые причины
Google до сих пор не дал никакой конкретной информации, каким образом поисковик фильтрует сайты после 19 октября, поэтому SEO-сообщество продолжает искать возможные причины проблемы и способы ее решения.
По мнению SEOшников, вот эти факторы могли привлечь внимание нового апдейта к сайтам:
Неуникальный контент. Рерайт с уникальностью меньше 100% — основная возможная проблема по мнению сеошников.
Заспамленность ключевиками. Переоптимизация и раньше считалась нежелательной, но при этом не была массовой причиной, по которой Google удалял страницы из индекса. Сейчас же огромное количество сайтов, таких как каталоги, доски объявлений и даже интернет-магазины, где использование схожих или даже одинаковых ключей упрощает продвижение — ушли далеко вниз по выдаче.
Переспам обратными ссылками. Речь идет о дешевых нетрастовых ссылках за 3 рубля или вовсе бесплатных, например регистрации в различных каталогах. Помимо этого, вебы часто обмениваются ссылками друг с другом, что и натолкнуло их на мысль о вреде подобных схем. Ссылки с анкорами в постах на форумах без заданных атрибутов rel=“nofollow” илиrel=“sponsored” тоже вредны.
Джарвис и другие сервисы генерации контента. Хоть и в некоторых случаях Джарвис может быть полезен для создания, например, коротких описаний до 400 символов, лучше отказаться от неги использовать написанный «от руки» текст. По мнению вебов, алгоритмы Гугла в большинстве случаев различают контент, генерируемый ИИ.
Сервисы SEO-продвижения. Речь идет о сервисах, использующих автоматические методы. Такими решениями пользуются в основном начинающие вебмастера. Если юзать эти сервисы бездумно, потерять трафик можно и без обновления Гугла.При выборе подобных сервисов изучите специфику их работы.
Реклама серых/черных продуктов или вводящая в заблуждение. Слив трафика на серые или черные офферы или же просто реклама, вводящая в заблуждение, негативно сказывается на трасте перед ПС.
CloudFlare. Вопрос спорный, сеошники не приходят к единому мнению. В отдельных случаях 100% сайтов, использующих IP-адреса этого сервиса, попали под октябрьские санкции Гугла и потеряли практически весь трафик из ПС.
Как вы считаете, по каким причинам сайты полетели в низ поисковой выдачи?
1. Либо сайт переспамлен ссылками с прямым вхождением анкора (ключевой фразы).
2. Либо нет динамики ссылочного давно.
3. Либо тексты слишком хуже, чем у других сайтов, и не раскрыт в них интент пользователя.
Если опустить черные методы (так как тот, кто их использует, прекрасно знает, за что наказан), проблемы наложения санкций в Google в плане спама не отличаются оригинальностью. Чаще всего это до сих пор тексты и ссылки. Также мы знаем о довольно большом проценте упавших проектов, работающих по партнерским программам. Причем основной их трафик был как раз из Google. В Яндексе они и ранее не занимали хороших позиций.
Регулярно с каждым апдейтом я наблюдаю, как один или несколько конкурентов или просто сайты из топов в разных тематиках страдают: теряют трафик, позиции и так далее. Стараюсь в свободное время анализировать такие ресурсы и пытаюсь определить причины происходящего. И одна из частых причин, почему сейчас сайты теряют трафик после апдейта в Гугл в том, что недостаточно внимания уделяют такому моменту, как экспертиза, авторитетность и траст в Гугл.
Все начинается с того, что, например, на информационных сайтах у каждой статьи должен быть указан автор. У автора должна быть оформлена отдельная страница на сайте с его именем и фамилией. Под статьями должны быть ссылки на эту страницу. Эту страницу нужно оптимизировать, улучшать, и заниматься ее продвижением, в том числе и ссылочным.
Гуглу сейчас не нужны в принципе сайты в выдаче, у которых нет авторства статей. Это один из моментов, а таких моментов много. Также, например, микроразметка очень влияет. Она позволяет:
1. Сделать название страниц вашего сайта более привлекательными в поисковой выдаче
2. Она позволяет разместить для робота Гугл форматы контента, которые вы на странице выводите для пользователей. Благодаря этому Google быстрее и полноценнее понимает, какую информацию предоставляете.
Варианты решения проблемы
До сих пор нет способа, который со стопроцентной уверенностью позволит вернуть трафик из Гугла после последнего апдейта. Единственный выход — пробовать что-либо изменить на самом сайте и наблюдать за результатом. Так советуют поступить и зарубежные SEO-специалисты в частности. Из максимально вероятных способов, способных вернуть прежние позиции в ПС Google, выделяем следующие:
Проверяем сайт в Search Console. В первую очередь проверяем состояние сайта в целом: ошибки, алерты и прочее. Возможно, подсказка где-то рядом.
Анализируем и редактируем контент. Как писали ранее, тексты должны быть на 100% уникальны и незаспамлены ключевиками. Возьмите несколько самых посещаемых ранее страниц сайта и проанализируйте их содержимое. Если нужно — правьте текст и наблюдайте за результатом.
Анализируем обратные ссылки. Как и в случае с текстом — анализируем, по возможности удаляем мусорные беклинки.
Проводим общий анализ сайта. Пробегитесь глазами по основным страницам. Обратите внимание, нет ли чего подозрительного, что в теории могло бы не понравиться Гуглу. Полистайте комменты под своими постами — при отсутствии защиты они могут быть заспамлены, в том числе и сторонними ссылками. А еще проверьте уникальность и содержание изображений. Атрибуты Alt должны быть написаны для людей, а не поисковых роботов.
Нашли ли вы решение, как можно вернуть сайтам трафик из Гугла?
Трафик возвращать не пришлось, что следует из первого вопроса, но дам совет тем, кому пришлось нелегко в этот апдейт гугла: попробуйте написать одну статью на вашем сайте высокого качества и разнообразными типами контента в одной статье — если она будет хорошо ранжироваться, то стоит просто дать новую жизнь сайту и написать точечно несколько статей для хорошего ранжирования.
Если не пойдет — то причина, скорее всего, в пессимизации домена на техническом уровне либо за ссылочный спам. Во втором случае отклоните ссылки со спамом прямыми анкорами, а если первый случай — боюсь, придется переехать на новый домен.
Так как никто из наших коммерческих проектов не попал под действие данного фильтра, решение искать не пришлось. Но инструкции для этого универсальные.
В первую очередь необходимо понять, какие страницы перестали приносить трафик, далее проанализировать, как изменилась выдача по соответствующим этим страницам запросам. Внести корректировки в соответствии с актуальными изменениями на выдаче. Часто клиенты ищут какой-то секрет, который нужно внедрить. Но никакого секрета нет. Просто работа.
Также регулярно следите за своим ссылочным профилем. На наш взгляд, давно пора отказаться от бездумной закупки ссылок. Часто ссылки покупаются, чтобы указать их в отчете, так как у клиента выделен ссылочный бюджет. При этом качество этих ссылок в 90% случаев оказывается очень низким. На короткой дистанции такие ссылки могут дать рост позиций, но в перспективе они скорее будут вредны. Проверяйте качество доноров, используйте дропы, работайте с тематическими площадками. Если понимаете, что в закупке нет необходимости, лучше перенаправьте этот бюджет в работу над проектом.
Одно из решений — это введение авторства, как я говорил. Еще можно привести примеры, когда мне успешно удавалось вывести из под санкций или просто понижения восстановить трафик после апдейта в Гугл. я внедрял на сайтах проверку фактов, т. е. так называемый фактчекинг. И это позволяет, во-первых, описать процесс для пользователей и поисковых систем, что вот у нас все факты в наших статьях проверяются экспертом. Например, врач проверяет статьи или факты, какие-то утверждения.
Еще один момент. Например, на некоторых сайтов медицинской тематики у моих клиентов было падение. И мы все восстановили таким способом. Статьи изначально написаны были копирайтерами, но не профессиональными врачами. После того как сайт потерял в позициях, я пришел к выводу, что нужно хотя бы сделать проверку статей врачом профессиональным — и мы это сделали. В авторстве статьи указан автор-копирайтер и что статья проверена такого-то числа экспертом врачом — и это позволило как раз эти проблемные моменты исправить. Сайты восстановили посещаемость.
Информация для размышления
Здесь упомянем некоторые тезисы из разных источников, которые, возможно, натолкнут вас на определенные мысли:
Если верить сайту Ahrefs, бурж-сайты старше 2 лет не потеряли трафик после обновы;
Новые сайты пока что вообще не индексируются;
После выхода обновления сайты одного вебмастера потеряли 90% трафика, большинство сайтов-конкурентов — тоже. Но лишь несколько не только осталось на прежних позициях, но и забрало себе весь трафик по тематике в целом;
Тематика ГЕО не имеет значения. Под раздачу попали и ру, и бурж-сайты.
Сайты в скором времени вернутся на свои позиции в индексе Гугла.
Скорее всего тема продолжит развиваться, и сеошники найдут лекарство от этой болезни. Ведь суть работы SEO-специалиста — это борьба с поисковыми системами. Будем надеяться на успешный исход в этой истории. Всем удачи!
По вашему мнению, что точно не стоит делать в попытке вернуть траф?
Если трафик после апдейта не восстановился через пару недель — точно не стоит продолжать в том же духе, как и делали до того, как он упал после апдейта. Надо менять стратегию развития сайта по всем направлениям SEO работ. Сначала по одному направлению — не вылез, значит, переходите к другому.
Точно не стоит пробовать пытаться спамить дальше. В практике есть много ситуаций, когда клиент приходит за помощью, уже попробовав решить проблему с падением самостоятельно. Но, как правило, вместо попытки уменьшить спамность по всем направлениям, принимается ошибочное решение наоборот добавить ключей, ссылок, использовать серые методы. Всегда попробуйте в первую очередь последовать рекомендациям поисковых систем в плане качества сайта. Мы считаем, что сейчас это самое перспективное направление работы, хотя, безусловно, встречаются тематики, в которых приходится конкурировать с не всегда честными оптимизаторами.
Подписывайтесь на наши соцсети, чтобы не пропустить новые материалы: