Как работают поисковые машины?
28 апреля 2016
Как работают поисковые машины?
Поисковые системы являются ключом к поиску конкретной информации на огромных просторах Всемирной Паутины. Без сложных поисковых систем было бы практически невозможно найти что-либо в Интернете, не зная конкретного URL. Но знаете ли вы, как работают поисковые системы? А знаете ли вы, что делает некоторые поисковые системы более эффективными?
Есть три основных типа поисковых систем:
- те, которые работают с роботами (так называемые сканеры, муравьи и пауки);
- те, которые работают с пользовательским фактором;
- а также те, которые являются гибридом первых двух.
Как правило, поисковые машины работают, рассылая «паука», чтобы получить как можно больше информации с сайтов. Другая программа, называемая индексатор, считывает полученную информацию и создает индекс на основе слов, содержащихся в каждом полученном тексте. Каждая поисковая система использует собственный алгоритм для создания своих индексов, так что, в идеале, возвращаются только значимые результаты для каждого запроса.
В любом случае вы на самом деле ищете по индексу, созданному поисковой системой, а не в Интернете. Индексы являются гигантскими базами данных информации, которая собирается и хранится, а затем выдается в поиске. Это объясняет, почему иногда поиск в поисковой системе, типа Yahoo! или Google, даст результаты, которые, по сути, будут являться мертвыми ссылками. Поскольку результаты поиска основываются на индексе, а индекс не обновлялся с момента появления веб-страницы, поисковая система относится к этой странице как к активной, хотя она больше таковой не является. Этот статус страницы изменится только после обновления индекса.
Так почему же тот же поиск в различных поисковиках дает разные результаты? Частично потому, что не все индексы одинаковые. Но что более важно, не каждый поисковик использует один и тот же алгоритм поиска по индексам.
Одним из элементов алгоритма является то, что поисковик сканирует частоту и расположение ключевых слов на веб-странице. Те, которые повторяются чаще, как правило, считаются более релевантными. Однако поисковые машины против чрезмерного насаждения ключевых слов, или поискового спама.
Другой распространенный элемент алгоритма – анализ ссылок на другие страницы в Интернете. Анализируя, как страницы ссылаются друг на друга, поисковик может определить, о чем каждая страница, и заслуживает ли эта страница повышения в рейтинге. Алгоритмы поисковиков становятся все «мудрее», и веб-мастерам становится все сложнее добиваться повышения результатов выдачи с помощью ссылок.
Заказать продвижение сайтов в Минске лучше всего в «AddThis».