Алгоритм поисковой системы

Что такое поисковой алгоритмИначе: поисковый алгоритм. Часть программно-аппаратного комплекса поисковой системы, предназначенная для предоставления информации по запросу пользователя и генерации страниц поисковой выдачи. Точное описание алгоритмов Яндекса, Google, других поисковиков невозможно, т.к. они относятся к области коммерческой тайны конкурирующих поисковых систем. О том, что учитывает алгоритм, можно судить, анализируя результаты поисковой выдачи после внесения изменений в содержимое сайта.

Алгоритм представляет из себя сложную математическую модель, которая учитывает множество параметров и, в результате, присваивает интернет–ресурсу степень релевантности ключевым запросам. Первые релизы алгоритмов были достаточно просты и оценивали объем текстов, ключевые слова и заголовки. Многократное усложнение алгоритмов явилось ответом на борьбу сайтов за первые места в TOP–выдачах, осуществляемую с помощью SEO–оптимизации, особенно черного ее варианта.

К числу учитываемых при оценке параметров относятся:

  • доменная зона, имя ресурса в доменной зоне;
  • соответствие ключевых слов реальной тематике ресурса;
  • возраст сайта, последняя дата обновления;
  • объем и количество страниц;
  • уникальность контента;
  • количество ключевых слов, соотношение их повторов и общего количества текста (заспамленность);
  • индекс цитирования;
  • ссылочная масса от внешних сайтов, определение веса с учетом солидности ссылающихся ресурсов–доноров;
  • качество оформления сайта, при этом учитывается единство стиля, наличие заголовков;
  • наличие фото– и видеоматериалов, графики и подписей к ним;
  • множество других факторов.

Задачи алгоритма поисковой системы:

  • формирование индекса сайтов, страниц, отдельных документов;
  • присвоение ранга;
  • генерация страницы поисковой выдачи с использованием единой базы индексов.

Изменения алгоритмов поисковых систем

Совершенствование алгоритмов является частью конкурентной борьбы поисковых систем. Эффективным инструментом оценки качества алгоритмов служит анализ, проводимый по результатам работы асессоров.

Релизы алгоритмов приводят к видимым изменениям страницы поисковой выдачи (апдейты). В некоторых случаях официальные лица поисковиков анонсируют готовящиеся нововведения. Например, в 2014 Яндекс объявил об исключении влияния ссылок при ранжировании коммерческих сайтов по ряду тематик. В 2015 году Гугл опубликовал новую концепцию для определения качества информации для сайтов с фактической информацией. Для этого Google создает специальную Базу знаний.

Обратный звонок
×
Оформить заявку
×
Отправить сообщение
×