- /
- /
- /
- /
- /
- /
- /
- /
- /
- /
- /
Клоакинг
Определение
Клоакинг представляет собой серый инструмент поисковой оптимизации веб-ресурса, в результате применения которого поисковые боты и посетители при создании запроса видят различные версии одной страницы.
Сложно добиться хорошо оптимизированного под ключевики и при этом удобочитаемого контента. Поэтому веб-специалисты разрабатывают 2 версии страниц – одну для людей, а другую для ботов с достаточной плотностью ключевых фраз.
Плюсом подхода является тот факт, что ресурс быстро продвигается вверх по поисковой выборке и каждый участник процесса остается доволен: оптимизатор, достигнувший цели вывода сайта на верхние позиции; поисковый робот, получивший страницы, соответствующие требованиям; посетитель, который получает информативный текст, не заспамленный ключевиками.
Применяется клоакинг и при арбитраже трафика. Так, он перераспределяет содержание страниц и демонстрирует то, что ожидается, для рекламных модераторов и отдельно для ЦА. Это позволяет адаптировать уже созданный текст по правила рекламной сети. При этом 2 версии сайта демонстрируются по одной и той же ссылки.
Причины использования клоакинга
Существует черный клоакинг, когда страницы продвигаются в выдаче по топовым запросам, но внутри себя содержат рекламные баннеры, купленные ссылки и другие элементы, не несущие пользы посетителю.
Но есть и безобидные причины, которые делают клоакинг допустимым и даже эффективным:
- защищает контент от кражи, так как код страниц закрыт от копирования и недоступен посетителям;
- сайты всегда выдаются на нужном языке благодаря учету браузерных настроек;
- может вычислить геолокацию пользователя по его IP-адресу.
- дизайн страниц может быть сохранен специальными методами, не используемыми поисковыми ботами при индексации.
Особенности работы клоакинга
Для создания нескольких копий страницы необходимы специальные знания в сфере программирования и оптимизации для поисковых систем. Также нужно получить данные об IP, User-agent.
Клоакингу позволяют осуществиться скрипты, функционирующие на серверах. Они ловят запрос и перенаправляют скрипт на поиск первоисточника. И тут стоит зада понять, кто обратился – посетитель сайта или поисковой бот, после чего можно будет продемонстрировать выбранный вариант страницы. Определить источник запроса можно с помощью вышеперечисленных IP и User-agent.
Как использовать User-agent
Эта методика позволяет проверить данные запросов, поступивших на веб-сервер. Для проверки задается имя бота поисковых систем, а скрипт пытается найти его в базе данных. Если в результатах появляется название бота, то ему показывается оптимизированная страница, а если имя в списке отсутствует, то демонстрируется версия «для людей».
Несмотря на всю эффективность метода, присутствуют и «подводные камни»:
- его легко может распознать даже продвинутый пользователь;
- если поисковик поменяет имя бота, а новое не окажется в списке скрипта, то будет продемонстрирована версия для пользователей.
Как использовать User-agent IP-адреса
Методика работает по тому же принципу, что и вышеописанная, однако демонстрирует более высокую эффективность, так как распознает айпи-адреса, которые невозможно подменить. Все роботы и пользователи имеют индивидуальный IP-адрес. Скрипт, в свою очередь, сверяет его с теми, что содержатся в базе данных. И после проверки вновь ботам демонстрируется оптимизированная под ключевые запросы версия, а пользователям – удобочитаемая.
Надежный способ не попасться при настройке клоакинга – совмещать обе методики: скрипты проверяют одновременно данные по User Agent и IP.
Клоакинг и поисковики
На самом деле поисковые системы не одобряют подобный метод продвижения. Считается, что клоакинг засоряет сеть и базы данных, препятствуя нормальной работе ботов. И когда последние обнаруживают сайты, созданные методом клоакинга, то накладывают на них санкции.
И Гугл, и Яндекс, и другие крупные поисковые системы пессимизируют сайты, уличенные в клоакинге, понижая их в позиции поисковой выборки по некоторым запросам.