г. Киев, ул. Сверстюка 11А
+38 (044) 232-40-42
hello@seo2.ua

Алгоритмы ПС

Содержание

    Алгоритмы поисковых систем (ПС) — это особые математические формулы, с помощью которых поисковые системы принимают решение относительно выдачи сайтов в результатах поиска.

    Как известно, поисковые машины ищут сайты по определенным ключевым словам или фразам. Алгоритмы поисковых систем позволяют найти сайты, которые наиболее точно соответствуют запросу пользователя, отсекая при этом ресурсы, ненужные пользователю или те, что используют недозволенные методы оптимизации.

    Поисковая машина, руководствуясь алгоритмом, анализирует контент сайта, выясняет наличие в составе контента ключевой фразы, принимает решение о том, насколько сайт соответствует поисковому запросу, и в зависимости от степени соответствия присваивает сайта ту или иную позицию в выдаче — выше или ниже.

    Для каждой поисковой системы разрабатываются свои алгоритмы. Схемы работы всех алгоритмов поисковых систем построены на подобных принципах. Например, все поисковики обязательно оценивают уникальность контента. Отличаются же алгоритмы поисковых систем некоторыми другими инструментами анализа.

    Описание

    На ранней стадии развития сети Интернет поисковым системам для нахождения нужной пользователю информации достаточно было анализировать только основные параметры содержания страниц: наличие заголовков, ключевые фразы, объем текста и т. Д. Однако, с появлением оптимизации и многочисленных способов спама, поисковые системы были вынуждены усложнить свои алгоритмы, в целях распознавания и отсеивания сайтов, по которым применялись подобные методы.

    Механизмы поисковых алгоритмов — секретная информация. Никто, кроме разработчиков поисковых систем, точно не знает, что именно учитывают алгоритмы и на какие факторы они обращают внимание. Вся информация об их работе, что появляется в сети Интернет, в большинстве случаев представляет собой личные выводы оптимизаторов, основанные на практических наблюдениях за сайтами, которые они раскручивают.

    Так, некоторые системы при выдаче сайтов в поисковых результатах способны анализировать информацию не только о частоте ключевых слов, но и о самых популярных страницах и количество времени, затрачиваемое пользователями на их просмотр. Чем эти параметры больше, тем выше вероятность того, что на сайте размещена действительно качественная информация. Другой подход предполагает определение количества ссылок и вычисления авторитетной веса площадки. Это такие показатели, как ТИЦ, PR и другие, механизм определения которых также является еще одним алгоритмом работы поисковых систем. Количество параметров, учитываемых поисковыми алгоритмами, может достигать нескольких сотен. Например, система «Google» при ранжировании сайтов обращает внимание на более чем 200 факторов.

    Алгоритмы поисковой системы Google

    История алгоритмов поисковой системы Google началась с введения в поисковый механизм индекса цитирования, заключается в ранжировании страниц и сайтов в зависимости от количества и авторитетной веса ссылок (PageRank), переданных на них с других ресурсов. Таким образом сеть Интернет превратилась в подобие коллективного разума, который и определял релевантность сайтов. Подобная концепция оказалась удачным нововведением, благодаря которому Google и стала наиболее популярной системой.

    На ранних этапах алгоритмы Google уделяли внимание только внутренним атрибутам страницы. Позже стали учитываться такие факторы, как свежесть информации и географическая принадлежность. В 2000г. Начал использоваться алгоритм Hilltop, предложенный Кришной Бхарат, для более точного расчета PageRank. В 2001 г.. Начальный механизм действия системы был полностью переписан. С этого момента Google стала разделять коммерческие и некоммерческие страницы. В этом же году был введен коэффициент, добавлял ссылке, переданных из авторитетных сайтов, больший вес.

    Первым, по-настоящему сложным барьером для специалистов SEO, стал алгоритм «Флорида», введен Google в 2003г. Он не только поставил под сомнение целесообразность использования распространенных на тот момент методов продвижения, но и существенно изменил позиции поисковой выдачи, исключив из нее страницы с повторяющимся анкором и переспамленимы ключевым словам.

    В 2006г. Система стала использовать разработку израильского студента Ори Алона — алгоритм «Орион», улучшает поиск благодаря отражению наиболее релевантных результатов и принимает во внимание качество индексируемых сайтов.

    В 2007г. Компания Google ввела еще одну систему фильтров и штрафных санкций — алгоритм «»Austin»». Многие страницы, которые занимали до его введения первые места в рейтинге, снизились на несколько позиций и не поднимались выше шестого места.

    В 2009 г.. Был анонсирован алгоритм «»Caffeine»», который выступил в качестве еще одного серьезного улучшения инфраструктуры «»Google»». С этого момента система стала не только индексировать больше страниц, но и значительно быстрее проводить поиск.

    Алгоритмы поисковой системы Яндекса

    С лета 2007г. компания Яндекс сообщать широкой публике об изменениях в своих механизмах ранжирования. До этого момента они были неизвестны.
    В 2008г. Началось тестирование поискового алгоритма «»Магадан»», который стал учитывать вдвое большее количество факторов, чем предыдущие версии. Также были добавлены такие нововведения, как распознавание аббревиатур и обработка транслита. Кроме того, Яндекс начал индексировать зарубежные сайты, что привело к увеличению конкуренции по запросам, содержащих иностранные слова. Итоговый релиз «»Магадана»» состоялся 16 мая того же года.

    В 2008г. Появился алгоритм «»Находка»», вызвавший изменения в способе учета факторов ранжирования. Также было отмечено, что по некоторым запросам в поисковой выдаче Яндекса стали появляться информационные сайты, в частности Википедия.

    10 апреля 2009 заработала поисковая программа «Арзамас». Нововведения, связанные с появлением, серьезным образом сказались на продвижении сайтов. Молодым сайтам стало еще сложнее пробиваться на первые позиции и наращивать количество ссылок. Однако, внедрение географической принадлежности, положительно сказалось на региональном продвижении ресурсов.

    В 2009 г.. Поисковая система Яндекс анонсировала новый поисковый алгоритм «Снижинский». Его особенностью стало внедрение новой технологии машинного обучения, названной разработчиками «»Матрикснета»». Фактически, с этого момента, продвижение сайтов стало меньше подконтрольное оптимизаторам. Яндекс, с помощью новой системы, связал огромное количество факторов и показателей сайтов, в итоге сделало ранжирование максимально релевантным оценкам асессоров.

    В 2010г. произошли изменения в способе анализа текстового содержания сайтов. Теперь страницы, насыщенные ключевыми словами, стали попадать под фильтры и удаляться из поисковой выдачи. На первый план вышел копирайтинг. Вскоре был анонсирован очередной апдейт системы «Матрикснета», которая раз в месяц осуществляла свое «»обучение»».

    В этом же году, по сообщениям представителей компании, со стадии тестирования вышел новый алгоритм «Обнинск», предназначенный для улучшения ранжирования гео-запросов.