Алгоритмы поисковых систем

Общество никогда не любило хаос и неупорядоченность,
никогда не любило неожиданности и непредсказуемость,
разве что в фильмах. Ведь что такое есть основа хаоса? Страх.
Общество не любит бояться и быть уязвимым.


Алгоритмы поисковых системАлгоритмы поисковых систем – это коммерческая, а поэтому закрытая информация. То, что именно учитывают поисковые системы при ранжировании сайтов, знают лишь разработчики этих систем. SEO оптимизаторам, путём собственных проб и ошибок на практике, приходится выявлять те или иные эффективные методы продвижения сайтов в первую десятку выдачи. Каждая поисковая система использует свои алгоритмы для поиска, которые время от времени обновляются с целью осуществления более качественной, релевантной выдачи.

Рассмотрим алгоритмы поисковых систем как способы поиска информации в собранной поисковиками базе html-документов, такие как прямой поиск и алгоритм обратных индексов.

Метод простого перебора всех html-страниц содержащихся в базах данных поисковых систем называется алгоритмом прямого поиска, но даже притом, что этот метод позволяет, точно найти нужную информацию, не пропустив ничего важного, он совершенно не подходит для работы с большими объемами данных из-за длительности обработки. И поэтому более результативным методом поиска, является алгоритм обратных индексов, на котором основан полнотекстовый поиск. Именно этот алгоритм используется всеми крупными поисковыми системами в мире. Прямые индексы, содержащие оригинальный текст документов, поисковики тоже сохраняют, но только для составления сниппетов.

При использовании алгоритма обратных индексов, поисковые системы преобразовывают html-документы в текстовые файлы, которые содержат полный список имеющихся в документе слов. Эти слова располагаются в алфавитном порядке, а рядом с ними указаны координаты мест, где они встречаются. Кроме этого для каждого слова приводятся еще некоторые параметры (которые являются секретной информацией), определяющие его значение в документе. На примере это выглядит как список слов используемых в книге, с указанием номеров страниц, где эти слова встречаются. При вводе запроса поисковые системы выдают информацию не сразу из сети, а из собственных баз данных на основе обратных индексов.

Так же в последнее время поисковые системы осваивают искусственный интеллект, направленный на развитие методов построения алгоритмов на основе машинного обучения, которые тесно связаны с извлечением информации и интеллектуальным анализом данных. В 2009 году Яндекс внедрил новый метод машинного обучения Матрикснет, который учитывает очень много факторов ранжирования и при этом не увеличивает количество оценок асессоров. Вот вам и прослеживание поведенческих факторов – до чего дошёл прогресс, до невиданных чудес…

При вводе одного и того же поискового запроса в разных поисковых системах результаты выдачи будут отличаться. Потому что каждая поисковая система использует свои алгоритмы ранжирования. И то, что хорошо для продвижения в одной поисковой системе, в другой не даст никакого эффекта. Другими словами исходя из старой пословицы: «Что для Яндекса хорошо, в Google не покатит!». Алгоритмы поисковых систем время от времени обновляются, вследствие чего обычно серьезно меняется выдача, а при ранжировании сайтов начинают учитываться не только новые факторы, но и старые с некоторыми изменениями.

Читайте также:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *