Поисковая система Google планомерно работает над снижением роли внешних ссылок в качестве одного из сильнейших критериев поискового ранжирования сайтов. Теперь для оценки качественного уровня веб-ресуров ещё больше внимания уделяется внутренним факторам, в том числе таким критериями, как релевантность поисковым запросам и полезность информации для посетителей сайта. Этот тренд сформировался несколько лет назад, когда Google признался в недостатках ссылочного ранжирования. Веб-мастера массово покупали ссылки и пытались воздействовать на алгоритмы поисковой системы с целью вывода сайтов на топовые позиции. В результате, на первой странице поиска вольготно располагались малополезные веб-ресурсы с огромным количеством купленных ссылок.
Следует отметить, что прежде качество интернет-ресурсов оценивалось по множеству критериев, среди которых внешние ссылки неизменно играли ключевую роль. Поисковым системам нельзя было отказать в логичности: ведь наличие ссылок с авторитетных сайтов прямо указывало на полезность контента для реальных пользователей. Однако веб-мастера «заигрались» покупкой ссылок и это заметно сказалось на качестве поисковой выдачи. В поисковой оптимизации появился новый термин – «ссылочный шум». Это означает, что покупные ссылки мешают правильному ранжированию сайтов. Ответная реакция Google не заставила себя долго ждать: наряду с ужесточением алгоритмов поискового ранжирования начали практиковаться прямые ручные санкции для отдельных сайтов, которые были замечены в продаже или покупке seo-ссылок. В итоге, заметно усложнились методы и сдвинулись сроки поисковой оптимизации, а клиентам пришлось увеличить бюджеты на продвижение и раскрутку корпоративных сайтов.
Дабы максимально осложнить жизнь оптимизаторов и убедить владельцев сайта работать над внутренними факторами ранжирования, Google разработал новый подход. В чем его суть? На главную роль выходят внутренние критерии оценки сайта, на основе которых оценивается траст (доверие) веб-ресурса:
Особый интерес для веб-мастеров представляет специальный алгоритм Knowledge-Based Trust. Он анализирует суть каждой веб-страницы, выделяет примечательные данные и сравнивает их с достоверной информацией из собственных баз данных. В первую очередь, этот алгоритм работает с информацией, которая выдаётся в поиске по конкретным пользовательским запросам. Например, биографические данные известных личностей, факты из всемирной истории, географическая информация и т.д. Google постоянно работает над обновлением алгоритма Knowledge-Based Trust и расширяет тематики для охвата разнообразных данных. Если пользователь интересуется информацией о работе розничных магазинов, то поисковик, в первую очередь показывает те сайты, где информация о ритейлерах совпадает с данными поисковой системы, а также даёт достоверный и полноценный ответ на запрос пользователя.
Что делать веб-мастерам в 2016 году
Поисковые алгоритмы не стоят на месте – они регулярно меняют приоритеты. Если несколько лет назад покупка сео-ссылок приносила неизменный успех, то сегодня это не работает. Ведь поисковое продвижение 2016 учитывает не только сложившиеся тренды, но и новые тенденции ухода от ссылочного ранжирования, ещё только набирающие силу. Важно каждый день отслеживать изменения, вовремя корректировать стратегии и быть в тренде поисковых систем.