Обновления алгоритмов ранжирования Google
Поисковая система Google в своем блоге рассказала о тех изменениях алгоритмов ранжирования, которые были предприняты ею за последние 2 месяца (август-сентябрь 2012 года). Таких изменений было “открыто” 65. Среди них были особо отмечены:
- По ряду запросов Google стал ограничивать количество выдаваемых результатов, чтобы пользователи могли скорее найти более релевантные документы.
- Обновились данные, по которым работает Panda.
- Обновлены данные, на основе которых строятся быстрые ссылки сниппетов.
- Для запросов, которые содержат местоположение объектов, Google стал находить более релевантные документы.
- Введена поддержка выдачи биржевых результатов при голосовых запросах.
- Произведено улучшение алгоритма, формирующего заголовки сниппетов.
- Улучшенная индексация видео-контента. При наличии нескольких документов с одного сайта, релевантных запросу, Google стал в большей степени отдавать предпочтение более свежей информации.
- Уменьшилось в выдаче количество документов, которые ввиду “двусмысленности” запросов могли вести пользователя на страницы со “взрослым” содержимым.
- Больше предпочтения Google стал отдавать документам с “доверительных” сайтов.
- “Граф знаний” стал работать для всех англоязычных пользователей во всем мире.
- В результатах поиска стало меньше низкокачественных страниц по синонимам слов из запроса пользователя.
- Если страница закрыта от индексации в файле robots.txt, то при выдаче ее в результатах поиска Google не может сформировать сниппет, так как не индексирует текст страницы. В результате чего вместо сниппета отображается информация о том, что страница была владельцем сайта закрыта от индексации, вот почему Google не может сформировать и показать ее описание. Почему именно Google может выдавать запрещенную страницу в индексе, см. цитату ниже.
Полное описание всех изменений доступно в блоге Google.
Обещанная цитата из документации Google для вебмастеров:
“Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project (www.dmoz.org), могут появиться в результатах поиска Google.”
http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449
Добавить комментарий