Спамдексинг (spamdexing) — это несколько способов манипулирования SERP. Поисковый спам в Seo привлекает тем, что позволяет быстро достичь нужных высот в продвижении. Правда, на очень короткий срок и с риском загубить всю проводимую кампанию.
Что такое поисковый спам
Изначально английское слово spam означало получение нежелательных писем, чаще рекламного характера, к себе на почту. Со временем так стали называть все сообщения, которые выглядят неестественно и имеют намерение получить выгоду или смошенничать.
Веб-спам также имеет под собой замысел обмануть, но уже Гугл или Яндекс. Это делается различными способами. Например, чёрными:
- дорвеи (doorway) — специально созданные под конкретный запрос (группу ключей) страницы, перенаправляющие трафик на другую интернет-площадку;
- клоакинг, маска (cloaking) — используется специальный код, делающий информацию на одной web-page для пользователя и поисковика совершенно разной;
- невидимые ссылки — анкором в таких линках выступают знаки препинания (точки, запятые);
- свопинг — обычно проводится на уже занявшем какие-то позиции сателлите с проиндексированным и уникальным контентом, куда впихивается бесчисленное количество фраз и ссылок на продвигаемый web-ресурс;
- линкфарминг (выращивание ссылок) — создаётся сеть не имеющих пользы одностраничников для наращивания ссылочной массы основного проекта.
Или методами помягче:
- добавление нескольких запросов в тайтл и описание (также кривые вхождения ключа);
- использование большого числа продвигаемых фраз в тексте (высокая тошнота);
- автопрогон (smile spam) — проводится рассылка объявления с упоминанием своего ресурса в каталогах, справочниках, форумах (естественно, в массовых количествах);
- рерайтинг — копируется оригинальный и полезный материал, каждое предложение текста перефразируется (выдача заполняется множеством уникальных статей, по сути, одинаковых по смыслу).
- накрутка ПФ.
Спамом поисковые системы могут посчитать и бездумную покупку ссылок веб-мастером. Пара-тройка неестественных линков — уже сигнал для алгоритмов. Фильтр последует обязательно, поэтому оптимизатору надо работать над получением естественных отсылок и рекомендаций. Гоняясь за количеством, а не качеством, оптимизатор часто покупает сотни бэков с заброшенных блогов, одностраничников, мусорных форумов и т. д.
Постепенно web-spam становится всё более изощрённым. Об этом свидетельствуют статистические данные (включая обнаружение поисковыми серверами не только спама, но и фишинга):
- 2002 год — 6-8%;
- 2003-2004 — 15-18%;
- 2018 — 50%;
- 2019 — 56,5%;
- 2020 — 52,8% (только во втором квартале года).
Основными странами распространения являются Россия, Германия и США.
Очевидно, что при попадании фишингового сайта на первые три позиции SERP, количество его посещений увеличивается в несколько раз. Из-за этого пользователь не может найти полезную информацию и уходит. Получается, что борьба с мусорными сателлитами становится для поисковой системы крайне актуальной, вынужденной мерой.
Зачем и кому нужен
Все сайты с поисковым спамом (созданные специально) не имеют какого-либо информативного содержания и мало относятся к запросам юзера. Главная их задача — продвинуть основной ресурс. Некачественные страницы быстро определяются ПС и блокируются, поэтому большие средства (уникальный контент, дизайн, внешние ссылки) в них не вкладываются. Проще создать новый аналогичный лендинг со схожим дизайном и структурой.
Спамдексинг — отдельный вектор чёрной оптимизации. Применяется с целью манипуляции результатами выдачи, повышения трафика, лучшего ранжирования альфа-проекта и т. д.
Методы обнаружения поискового спама
Поисковые системы не любят спам, вводящий пользователей в заблуждение. Не найдя ответ на вопрос, они переходят на другие площадки или ещё хуже — в другую ПС. Поэтому алгоритмы находят и блокируют такие страницы.
Вот, как это обычно делается:
- Анализаторы регулярно и автоматически мониторят выдачу на наличие мусора.
- Некачественные сателлиты сами берут огонь на себя, палясь неестественными ссылками или ключами. Окончательное решение по их блокировке принимает асессор, который обязательно проверяет площадку.
- Модераторы тестируют сайты после жалоб посетителей (обычно их оставляют конкуренты). Если на площадке находят spamdexing, то она попадает под фильтр.
Одним из алгоритмов, выявляющих поисковый спам — является HITS. Он специально введён для ранжирования документов определённой тематической направленности и связан с конкретными запросами. На данный момент применяется ко всем сайтам для нахождения ядра (весомых страниц). Чтобы продвинуться в топ, «чёрный» Seo-шник обычно работает именно над авторитетными web-page.
Без применения специальных эвристик, поисковики затрачивали бы до седьмой части своих ресурсов на обнаружение спама. А это значительно ухудшает общее качества работы анализаторов, из-за чего под раздачу могут попасть хорошие и авторитетные сайты.
Ниже приведены основные методы, помогающие находить мусорные площадки:
- Высокая тошнотность (заспамленность) всего текста. Говоря иначе, его перенасыщению какими-то словами. Часто они даже не соответствуют содержанию материала, так как добавляются в целях соответствия сразу нескольким поисковым запросам. Так ловкие Seo-шники добиваются, пусть и временно, чтобы при обращении к выдаче пользователям показывалась именно их страница.
- Ключи в заголовке. Google и Yandex считают тайтлы важнейшей составляющей в определении релевантности статьи запросу. Поэтому наличие в них поисковой фразы расценивается положительно, таким web-page присваивается высокий рейтинг. Недобросовестные операторы это хорошо знают и используют в собственных целях. К примеру, нещадно увеличивают количество фраз, не чураются высокочастотными кривыми вхождениями.
- Исходящие линки. Поисковики любят ссылки, ведущие на полезные и содержательные материалы, дающие полноценный ответ. Распространитель спама это понимает, но использует данный приём по максимуму, делая из страницы просто каталог ссылок (причём на недоброкачественные ресурсы).
- Структурированные метаданные. Особенно Гугл часто анализирует определённые html-теги, не отображаемые браузером. Например, alt, keywords, title картинок и другие. Зная об этом, оптимизаторы широко используют их, пичкают сюда ключевые слова, ссылки и прочее.
- Стоп-слова. Обычно в контенте, сделанным под спам, наблюдается немного стоп-слов, вставленных через определённые промежутки по всему тексту. Определяется такой материал по неестественности и искусственности вхождения служебных частей речи.
- Составные слова. На данный момент относительно редкая практика, но когда-то широко применяемая сеошниками. При такой технике несколько слов объединялись в одну композицию без пробелов — «самсунгтелефон», «авторенодешево» и т. д. Этот вид web-spam ориентирован на такие запросы, когда пользователи при наборе не учитывают расстояние между словами и пропускают разделительные знаки. Сегодня среднестатистический юзер повысил свою интернет-грамотность, эти ошибки свелись к минимуму. Однако в своё время именно по количеству таких словосочетаний вычисляли спамные ресурсы.
Перечисленные эвристики применяются роботами в комплексе, иначе может возникнуть парадоксальная ситуация, когда web-spam помечаются качественные страницы. Наиболее эффективным становится объединённый метод анализа характеристик — точность вычисления в таком случае повышается практически до 100%.
Последствия использования поискового спама
Поисковые системы давно ведут борьбу со спамом, поэтому регулярно обновляют и совершенствуют собственные алгоритмы. Постоянно разрабатываются новые фильтры. За манипулирование выдачей наказывают по-разному, в зависимости от количества нарушений, степени вреда и т. п.
Например, перенасыщение статьи ключами может привести к падению позиций отдельной страницы (на которой опубликован материал), а за дорвеи — блокировке не только их, но и основного ресурса, а также всех связанных с ним сателлитов. Яша открыто об этом предупреждает и в подходящих случаях накладывает бан.
Гугл тоже располагает собственными фильтрами для борьбы со спамом. Однако в последнее время стал больше доверять асессорам — работникам, которые перепроверяют результаты.
Фильтры Яндекса | |
АГС | Введён с 2009 года, направлен на мусорные ресурсы с кучей Seo-ссылок, копипастом и низкой информативности. Как правило, обнуляет ИКС. |
Баден-Баден | Основная задача — бороться с манипуляцией выдачи. Накладывается на сайты с переоптимизированными статьями. |
МПК | Фильтр за малополезный контент, некорректную рекламу и спам. |
Минусинск | Наказывает ресурсы за большое количество анкоров и неестественных ссылок. Понижает позиции страниц и ресурса в целом. |
Бан за накрутку | Наказывают площадки, где замечена имитация действий посетителей. |
Фильтры Гугла | |
Panda | Назначение — косить сайты с малополезным контентом. Понижается позиция в выдаче, теряется органический трафик. |
Supplemental Results | Недостаточно качественные, спамные страницы помещаются в дополнительный индекс, изначально скрытый от пользователей. |
Penguin | За спам в комментариях, неестественные ссылки, переоптимизацию контента анкорами/безанкорами. |
Фильтр за микроразметку | Накладывается в случае злоупотребления элементами мета-тегов. |
Выводы
Алгоритмы быстро находят поисковый спам, так как заинтересованы в качестве выдачи. Мусорные сайты обычно полностью блокируются, реже — накладывается фильтр на конкретные страницы.
Читайте также:
-
Как создать канал в WhatsApp: пошаговое руководство
-
Webview-приложения под гемблу — лучшее решение на сегодня?
-
Что такое Plinko и как на нем заработать с прилами TD APPS?
-
Как создать БМ через магазин на базе фанпейджа
-
Новостная витрина в арбитраже
-
Как открыть виртуальную турецкую банковскую карту из России