Google запустил в тестовом режиме новый вспомогательный механизм ранжирования сайтов, выдаваемых по результатам запроса: пользователям предлагается самим выставить оценки обнаруженным сайтам и, таким образом, поучавствовать в ранжировании ресурсов (пример см. здесь).
Как сообщает CNet, в тестовом режиме "демократическая система ранжирования" работает около двух недель и уже вызвала неоднозначную реакцию среди тех, кто ищет, и тех, кого ищут.
Поисковики пользуются различными способами ранжирования сайтов, выдаваемых по результатам поиска. Из русских "Рамблер", например, при выдаче результатов поиска руководствуется своим собственным рейтингом сайтов, то есть результаты выдаются с учетом посещаемости сайтов, "Яндекс" ориентировался ранее на наличие или отсуствие конкретного ресурса в его каталоге, но позднее, как и Google, стал ранжировать с помощью PageRank.
Google же с момента своего основания строил ранжирование на основе технологии PageRank, разработанной его основателями Сергеем Брином и Лари Пейджем. Основы новой поисковой системы были изложены в научной работе Брина и Пейджа "The Anatomy of a Large-Scale Hypertextual Web Search Engine". Метод такого ранжирования восходит к принятому в научной среде методу оценки значимости той или иной научной работы индексу цитируемости, то есть количеству ссылок на статью в работах других ученых.
Метод полностью оправдал возложенные на него надежды, и Google, без преувеличения, стал самым популярным поисковиком в мире Googl'y удавалось выдавать в первых строках списка результатов наиболее соотвествующие запросу ресурсы.
Помимо собственно ранжирования результатов поиска, метод также позволяет отсеивать при индексации Сети случайные, неинтересные ресурсы. Недавно большой переполох вызвало сообщение о том, что Google, отныне, будет индексировать странцу только при условии нахождения им хотя бы одной внешней ссылки на эту страницу. Обычно для индексирования достаточно послать запрос на включение сайта в базу данных поисковика.
Однако теперь и этого, самого эффективного на данный момент (одного, впрочем, из вспомогательных) способа ранжирования сайтов для Google оказалось недостаточно.
Осноной проблемой для всех без исключения поисковиков являются недобросовестные авторы ресурсов, всеми доступными методами борющиеся за то, чтобы их сайт появлялся по любым пользователским запросом как можно выше в списке. Google всегда довольно эффективно боролся с таким "спаммерами". Однако любая, даже самая изощренная и засекреченая технология индексации и ранжирования и защиты от спама может быть довольно быстро поломона и обойдена.
Ранее самым распространенным способом повышения рейтинга ресурса было использование метатегов, в которые включались все возможные ключевые слова. Однако Google просто игнорирует метатеги, в результате чего такие ухищрения остаются напрасными.
Сейчас самым популярным методом введения в заблуждение поисковых роботов можно считать cloaking. Суть метода сводится к тому, что поисковому роботу показывается одна страница, а реальному пользователю другая. При этом методы разделения пользователей на одних и других могут быть самыми разными.
В результате действий спаммеров вместо сайта, действительно интересующего пользователя, поисковик зачастую выдает ссылки на сайты, не содержащие никакой интересующей пользователя информации. Для борьбы с такими ресурсами Google даже ввел специальный сервис, позволяющий пожаловаться на спаммера.
Введение системы неавтоматического рейтингования сайтов является еще одним шагом на пути борьбы с недобросовестными администраторами ресурсов. Однако какие плоды принесет этот шаг пока не известно. По предположению CNet, такой дополнительный способ ранжирования может как поднять Google на недосягаемую высоту, так и незвергнуть его в пропасть.
Эксперты прежде всего подвергают сомнению чистоту результатов голосования в виду все возрастающей коммерциализации всех поисковиков, в том числе и Google. К тому же техническое осуществление онлайнового голосования неизбежно сопряжено с массой трудностей.