Эксперты продолжают исследовать тонкости взаимодействия Google с контентом на сайте, что приводит их к неожиданным открытиям и закономерностям в работе алгоритма. Не так давно на Reboot Online провели очередной эксперимент, результаты которого находятся в открытом доступе. Он состоял в желании выяснить, насколько сильно на ранжирование сайта влияет хостинг, размещающий также дешёвые и некачественные ресурсы, а также сервисы, через которые осуществляется мошенническая накрутка посещений сайта.

Для того, чтобы выяснить, как поведёт себя поисковик, были созданы специальные тестовые сайты, которые размещали на соответствующем хостинге. За экспериментом также наблюдал Сайрус Шепард - весьма известный и уважаемый специалист, который выступал в качестве независимой стороны. Результат же показал, что сайты, имеющие общий IP-адрес на ненадёжном хостинге, в среднем оказались гораздо ниже, чем ресурсы на выделенном, а значит чистом IP.

Эксперты сделали вывод, что алгоритмы Google, опираясь на особенности искусственного интеллекта и машинного обучения, ищут и находят общие характеристики некачественных сайтов для противодействия накруткам и манипулированию пользователями, таким как просмотр сайтов за деньги. Таким образом, разместив сайт на подозрительном с точки зрения алгоритма хостинге, вы попадаете в плохое окружение, которое будет бросать тень на ваш ресурс. То есть, даже соблюдая все правила площадки, вы всё равно получаете маркировку ненадёжного сайта из-за единого IP.

Разумеется, такое исследование вызвало резонанс в SEO-сообществе. В дискуссию включился и известный Гуглмен, Джон Мюллер, который с ходу опроверг результаты исследования и предоставил ряд доказательств. По его словам, никакого алгоритма, который учитывал бы подобные условия, нет.

В качестве примера Мюллер привёл Blogger, который точно так же имеет как хорошие, зарекомендовавшие себя сайты, так и совершенно ужасные, направленные на манипуляцию пользователями. Однако, несмотря на единую инфраструктуру, чистые ресурсы не падают в выдаче, а наоборот, занимают весьма высокие позиции. Чистота эксперимента же скорее всего была нарушена из-за искусственной природы сайта - как утверждает Мюллер, такие экспериментальные ресурсы часто показывают подобные результаты.

В целом специалист подытожил, что важнее всего для поисковика информация и стабильность сайта, нежели его хостинг.



Поделитесь с друзьями:

Просмотров: 638   Новости seo и маркетинга
 (голосов: 1)


Автор: Александр Мишустин, Vertex seo  

Комментарии



Добавление комментария



Ваше Имя:
Код: Включите эту картинку для отображения кода безопасности
обновить, если не виден код
Введите код:

С этой статьей также читают:
Google платил производителям мобильных телефонов в обмен на обещание не устанавливать другие магазины приложенийVK Mini Apps докладывает, что количество приложений на платформе значительно увеличилосьYouTube рассказал детали алгоритма рекомендаций видео