Блог в помощь настоящему блоггеру
  • 25
    03.2011

    Новый алгоритм GoogleКак известно, изменения алгоритма поисковый выдачи, которые недавно произвёл популярный поисковик Google, серьёзно озадачили многих seo-оптимизаторов и намного осложнили их работу. Между тем, широкой публике наконец-то стала доступна информация, которая касается новых фильтров, обуславливающих результаты поиска факторов и других технических и организационных новшеств. Представляется, что данная информация позволит хоть в какой-то степени разобраться в сути произошедших изменений, быстро сориентироваться и соответствующим образом перестроить работу по продвижению сайтов в поисковой выдаче системы Google.

    Речь, собственно, идёт о том, что спустя некоторое время после выхода нового поискового алгоритма Googlе, в прессе появилось интервью с Мэттом Каттсом и Амитом Сингалом. Эти два ведущих инженера-разработчика корпорации дали некоторые разъяснения по поводу того, как именно будет в дальнейшем функционировать поисковая система и каким образом она теперь дифференцирует контент по уровню качества. Судя по словам Каттса и Сингала, определять степень уникальности, полезности и удобоваримости контента, размещённого на проиндексированном сайте, будут специально нанятые сотрудники, реализующие контроль над функциональными параметрами поисковой системы. Именно этим людям, а не машинам, будет вменено в обязанность определение рамочных параметров релевантности результатов поисковой выдачи по тематическим запросам пользователей системы.

    По мнению ряда экспертов, предпосылкой к появлению нового «очеловеченного» алгоритма, послужил выход в 2009-м году программы Caffeine, непрерывно обновляющей индекс и сведший до минимума время между индексацией страницы и предоставлением её клиенту поисковой системы Googlе. Вызванное этим обстоятельством ускорение индексации и увеличение объёма проиндексированных страниц породило в свою очередь необходимость разработки таких фильтров, которые могли бы беспощадно отсеивать ресурсы, содержащие на своих страницах некачественный или вредоносный контент. По мнению разработчиков Googlе, наилучшим способом игнорирования «мусорных» страниц как раз и является учёт при разработке поисковых фильтров проанализированных данных специально проведённых социологических опросов.

    Если говорить о конкретном содержанию опросных листов, то в них предложено включать ряд простых вопросов о полезности информации, предоставляемой конкретным ресурсом, и его удобстве для пользователя. Делая вывод из выше сказанного, можно сказать, что не за горами то время, когда серьёзным компаниям, которые специализируются на раскрутке и продвижении сайтов, придётся прибегать к услугам специалистов по социологическим вопросам. Впрочем, как бы там ни было, а вне зависимости от этого, новый поисковый алгоритм, получивший благодаря главному инженеру-разработчику данного проекта кодовое название «Большая Панда», уже запущен и успешно работает в Соединённых Штатах. Что касается распространения алгоритма на другие страны, то вряд ли кто сомневается, что подобные локализации не заставит себя долго ждать.

    Коментарии 2
    • http://twitter.com/Sergey_Kolusev Sergey Kolusev

      Думаю в России он тоже уже начал действовать. У многих сайты трясёт.

    • http://vovka.su Вовка

      Трясет нетолько в bing. Но думаю, что если Майкрософт что-то задумает, то с помощью своей Оси и обновлений по сети все реально решить :)

    Метки: ,