Алгоритм работы с Гугл

Содержание

Чтобы ваш сайт попал в топ Google, он должен соответствовать многим требованиям и критериям. Поисковая система использует целый ряд алгоритмов и фильтров для всесторонней оценки сайта. Об этих алгоритмах и о том, как не попасть под санкции поисковой системы, которые влекут пессимизацию, расскажут наши партнеры, команда Links.Sape.

YMYL и E-E-A-T

Дата внедрения: сложно сказать. В 2011 году случилась утечка инструкции для асессоров (специалистов по ручной оценке сайтов). В нем уже были описаны базовые принципы YMYL и E-A-T. Спустя 11 лет троица E-A-T дополнилась еще одним E.

Что это и как работает

YMYL — категория сайтов. Расшифровывается как «Your Money or Your Life» — «деньги или жизнь». Под эту категорию попадают сайты, контент которых касается денег и/или здоровья: про работу, образование, инвестиции, пенсии, лекарства, болезни, правовые вопросы и многие другие.

E-E-A-T — критерии оценки контента для YMYL-сайтов. Впрочем, по мнению большинства SEO-специалистов, по критериям E-E-A-T Google фактически оценивает весь контент независимо от его тематики. E-E-A-T расшифровывается как Experience, Expertise, Authoritativeness, Trustworthiness: опыт, экспертность, авторитетность и доверительность.

Принцип работы поисковых систем и алгоритм поиска Яндекс и Google 2023

Часть показателей, которые входят в эти критерии, автоматически оценивает Google, ещё часть — асессоры.

Как не допускать пессимизации (понижения сайта в поисковой выдаче)

— Писать тексты, которые отвечают на вопрос посетителя страницы. Без этого все остальные пункты мало что значат.

— Создать отдельную страницу эксперта, на которой будет дан максимально полный ответ на вопрос, почему его можно считать экспертом.

— По максимуму получать обратные ссылки с трастовых сайтов вашей тематики. Именно они больше всего влияют на критерий A – авторитетность.

— Дополнять контент описанием реального опыта, связанного с темой материала, а также по возможности размещать пользовательские отзывы.

— В информационных статьях указывать источники, как делают в научных работах или в той же Википедии.

— Проверить, что на сайте есть и легко доступна базовая информация о компании: одноименный раздел, контакты, сертификаты, политика доставки и возврата товара и т. п.

Mobile-first Indexing

Дата внедрения (официальная): июль 2018

Что это и как работает

Логика ранжирования, по которой Google оценивает мобильную версию сайта как основную. Если раньше большую часть трафика составлял десктопный, то сейчас подавляющее большинство пользователей заходят в Интернет со смартфонов. Поэтому и поисковая система перестроилась в соответствии с сегодняшними реалиями — для нее важно, чтобы любой сайт был удобен именно для пользователей мобильных устройств.

Как не допускать пессимизации

— Делать адаптивную верстку либо мобильную версию клона десктопной. Официальные рекомендации ПС гласят, что на мобильной версии сайта должны быть ровно те же материалы, что и на полной: тексты, изображения, видео.

Как отключить блокировку Google

— Не забывать про наличие метатегов на обеих версиях сайта.

— Проверять адаптивность страниц под мобильные устройства глазами Google. Это можно сделать в этом сервисе:

Если все хорошо, вы увидите вот такой скриншот:

Страница удобна при просмотре на мобильных устройствах - значит, страница оптимизирована для мобильных устройств.

А если увидите такую картину — готовьте бюджет на веб-разработку:

Страница неудобна при просмотре на мобильных устройствах - нужно готовить бюджет на разработку.

Причем, если с мобильной версией всё ок, это ещё не значит, что сайт выйдет в топ.

Core Web Vitals

Дата внедрения (официальная): май 2021

Что это и как работает

Набор «жизненно важных» показателей, по которым Google оценивает скорость загрузки сайта. Три ключевых описаны ниже:

  • Largest Contentful Paint (LCP) — показывает время отрисовки самого большого элемента страницы. Например, фонового изображения или постера в теге video. Показатель «ок» < 2,5 сек.
  • First Input Delay (FID) — показывает время с момента первого взаимодействия пользователя со страницей до момента, когда браузер начинает обработку событий. Показатель «ок» < 100 мс.
  • Cumulative Layout Shift (CLS) — коэффициент визуальной стабильности. По сути, этот коэффициент отражает время, в течение которого положение контента меняется на странице без действий пользователя, например, из-за показа рекламы. Показатель «ок» < 0,1.

Как не допускать пессимизации

— Использовать инструменты для анализа показателей. Можно, например, использовать бесплатную js-библиотеку Web Vitals или расширение для Chrome Web Vitals. Можно поступить совсем просто и использовать старый добрый GPSI. Метрики Core Web Vitals он не покажет, но большую часть проблем со скоростью загрузки подсветить сможет. Вот так, к примеру:

GPSI поможет провести анализ для дальнейшей оптимизации.

— А дальше — оптимизировать всё, что оптимизируется. Или хотя бы то, что показал GPSI, как на скрине выше. Сжимать картинки, удалять неиспользуемый код, оптимизировать используемый и т. п.

RankBrain

Дата внедрения (официальная): октябрь 2015

Что это и как работает

Система на базе искусственного интеллекта, которая «понимает» запросы пользователей. В частности, синонимичные и антонимичные фразы, отсеивает нерелевантные запросу результаты и использует данные о регионе пользователя.

Например, именно с помощью этой системы можно найти сайт, который вообще не содержит ключевых слов. Другая сторона этой системы: по запросу «учебники по математике для взрослых» в топ-10 нет страниц с учебниками для школьников.

Как не допускать пессимизации

RankBrain не пессимизирует. Скорее, наоборот, — благодаря ей в выдачу могут попасть действительно качественные статьи, которые вообще не оптимизированы под SEO. Используйте профессиональную лексику, и шансы выйти в топ вырастут.

BERT

Дата внедрения (официальная): октябрь 2019

Что это и как работает

BERT (Bidirectional Encoder Representations from Transformers) — технология, которая работает на базе нейросетей. Суть ее работы похожа на RankBrain: она анализирует запросы пользователей и соответствие контента этим запросам независимо от наличия/отсутствия ключевых слов. Пока нет официальной информации о том, в какой мере она используется для обработки русскоязычных запросов и используется ли вообще для них.

Как не допускать пессимизации

Как и RankBrain, BERT не способна пессимизировать сайт. Принципы работы с ней те же самые.

Sandbox (песочница)

Дата внедрения: примерно 2004 год. Тогда Google не был склонен объявлять о наличии фильтров.

Что это и как работает

Это фильтр, который не пускает в топ молодые сайты возрастом до 3–6 месяцев. Такие сайты, пока не выйдут из песочницы, имеют шансы отранжироваться только по низкочастотным, реже среднечастотным запросам.

Как не допускать пессимизации

Ничего. Песочницу можно только пережить — и ваше терпение будет вознаграждено резким скачком, сразу на несколько десятков или даже сотен позиций в топе Google.

Panda

Дата внедрения (официальная): февраль 2011

А правда ли что Google

Что это и как работает

Это алгоритм, который оценивает контент на сайте и не пускает в выдачу сайты с плохими текстами. Вот что понимается под «плохими»:

  • слишком короткие тексты;
  • дубли контента с другими сайтами, с другими страницами сайта и внутри страницы;
  • бесполезный с точки зрения пользователя контент, «вода»;
  • обилие ключевых слов и фраз, переспам;
  • ошибки в текстах;
  • высокий процент рекламы;
  • UGC (контент, созданный пользователями) низкого качества.

Как не допускать пессимизации

— Писать грамотные тексты по делу.

— Не воровать контент. Даже если вы используете чьи-то мысли как основу, грамотный копирайт никто не отменял.

— Если на страницах сайта открыты комментарии, модерировать их, не превращать страницу в UGC-помойку.

— Если по сайту «прошлась панда», зачастую единственный способ вывести ресурс из-под санкций — полностью переписать все тексты на нем.

Пингвин

Дата внедрения (официальная): апрель 2012

Что это и как работает

Раньше это был один из самых злых алгоритмов Google. Сейчас он действует довольно мягко: сайт не выкинет из топа напрямую, однако могут перестать учитываться некоторые ссылки. Из-за чего, в свою очередь, просядут позиции.

Как не допускать пессимизации

Не закупать ссылки по принципу «лишь бы было»:

  • на низкокачественных донорах, которые ссылаются на все сайты подряд, независимо от тематики;
  • сразу и в большом количестве: так, что вчера было 10 входящих ссылок, а завтра их уже 100;
  • со страниц, где ссылки неестественно выглядят: мелким шрифтом или, например, тем же цветом, что и фон страницы;
  • с анкорами, которые выглядят, как неестественные запросы в точном вхождении: «купить окна пластиковые москва».

В одном из исследований эксперты Sape проанализировали вопрос: какие факторы SEO-специалисты считают наиболее значимыми для продвижения в Google. Вот что получилось:

Внешнее ссылочное окружение SEO-специалисты считают наиболее значимым для продвижения в Google

Если с внешней оптимизацией под Google дела обстоят еще более-менее спокойно, что однозначно помогает ей выйти в топ-1 по значимости, то с контентом и технической стороной сайта нужно работать действительно ювелирно. Кратко о том, на что стоит обратить внимание:

  • Писать уникальный, полезный для пользователя, не переоптимизированный контент. Главное — смысл, а не ключевые слова.
  • Выбирать тематические и трастовые площадки для закупки ссылок. Ценными будут, в частности, ссылки из статей, написанных экспертами в вашей тематике.
  • Оптимизировать всё, что только можно, чтобы сайт быстро работал.
  • Следить в первую очередь за тем, как сайт отображается на мобильных устройствах. Сейчас для Google они важнее десктопных версий.

Источник: www.reg.ru

Алгоритмы Google: история развития

Алгоритмы Google

23 февраля 2 августа Игорь Серов SEO учебник google, алгоритм поисковых систем, песочница сайта, поисковая выдача, поисковой запрос, ресурс

Вступление

Алгоритмы Google, основа работы поисковой системы Google. Созданный Ларри Пейджем и Сергеем Брином, Google сегодня способен найти документы на двух сотнях языках и произвести обработку данных базовых форматов (Microsoft Word, PDF, Excel и т.д.). В этой статье вспомним главные этапы развития алгоритмов Google, созданных для ранжирования веб-страниц в поисковой выдаче Google.

Алгоритмы Google: история развития

1998 год. В этот год был основан поисковик Google. В то же время был создан Page Rank (PR), алгоритм работы которого основывался на передаче ссылочной массы и имел два основных параметра.

  1. Чем больше количество ссылок, ведущих на ту или иную страницу, тем выше уровень Page Rank и место, занимаемое в поисковой выдаче.
  2. Чем выше уровень Page Rank ссылающихся веб-страниц, тем больше масса, передаваемая ссылками.

Официальным создателем PR является Лари Пейдж, а владельцем патента на данное изобретение – университет Стэнфорда.

Интересный факт – многие считают, что Page Rank переводится как «ранг страницы». На самом деле это словосочетание переводится как «ранг Пейджа», создатель изобретения дал ему свое имя. В дальнейшем многие поисковики переняли идею Page Rank в качестве основы, разработав собственные аналоги инструмента.

Начало века

2000 год. Компания Google представляет широкой общественности новую разработку – алгоритм под названием Hilltop, который позволяет наиболее точно рассчитать уровень PR. Данный алгоритм читает географию и степень новизны того или иного документа. После этого Google начинает оповещать веб-мастеров о том, чтобы они не оставляли ссылки на подозрительных веб-сайтах и «линко-помойках».

Как удалить почтовый ящик на Google навсегда

2001 год. В этот год компания Google регистрирует патент на алгоритм Hilltop. На этом же этапе поисковая система делит результаты поиска для некоммерческих и коммерческих запросов.

2005 год. Специалисты Google впервые пробуют персонализировать поисковую выдачу, задав за основу предыдущие запросы того или иного пользователя.

2006 год. Компания запускает усовершенствованный алгоритм, базирующийся на алгоритме под названием Orion – детище студента из Израиля. Поисковая система теперь может находить совпадающие по тематике запроса веб-страницы, не содержащие ключевиков.

С этого момента Google начинает «уточнять» запросы пользователя, предлагая варианты, которые чаще всего ищут с данным словом. К примеру, пользователь набирает в поисковой строке слово «круг». Система предлагает ему такие варианты запроса, как «круг песни», «круг для купания новорожденных» и т.д.

2007 год. Этот год ознаменован запуском нового алгоритма Austin. Новинка способна учитывать уровень трастовости того или иного веб-ресурса и понижать в поисковой выдаче ресурсы с меньшим показателем трастовости. Таким образом, веб-сайты, которые не успели набрать траст.

Новое в 2009 году

2009 год. Разработчики Google внедряют в работу поисковой системы новый алгоритм Caffeine. Прошлые алгоритмы Google стали не соответствовать, возросшим производственным мощностям. Благодаря чему поисковик начинает намного чаще производить индексирование сайтов.

Во много раз ускоряется формирование страницы с результатами поисковой выдачи. Caffeine не сильно повлиял на формулу рассчёта релевантности, тем не менее стали заметны следующие изменения:

Постоянная индексация всего пространства всемирной паутины позволила поисковой выдаче Google стать гораздо динамичнее и меняться в течение дня.

Второе десятилетие нашего века

2011 год. Специалисты пополняют алгоритмы Google своим «мусорщиком». Это запуск алгоритма под названием Panda – первый серьезный чистильщик выдачи. Новый алгоритм «чистит» поисковую выдачу от «плохих» сайтов:

Создатели усовершенствованного алгоритма Мэтт Катс и Амит Сингал отмечают, что их новое детище учитывает следующие моменты:

  • Процентный показатель уникальности содержания определенной страницы и на ресурсе в целом;
  • Уровень шаблонности содержания, то есть схожесть текстов, написанных под различные ключевики;
  • Наличие стилистических, грамматических и орфографических ошибок;
  • Релевантность представленной на ресурсе рекламы к тематике размещенных текстов
  • Соответствие содержания тегов и метатегов веб-страницы к ее контенту;
  • Степень насыщенности размещенных текстов ключевиками;
  • Уровень качества исходящих и входящих ссылок;
  • Действия интернет-пользователя (длительность посещения сайта, число просмотренных веб-страниц, количество отказов и возвратов на ресурс).

Сегодня можно с уверенность отметить, что практически все современные поисковые системы учитывают данные факторы, в особенности – поведенческие. Чем интереснее контент сайта для интернет-пользователя, тем больше он проведет времени на данном ресурсе. Тем выше данный веб-сайт будет ранжироваться на странице поисковой выдачи.

Читать по теме: Подбор ключевых слов – общий принцип подбора ключей сайта

Калибри

2013 год. В октябре алгоритмы Google пополнились новейшим алгоритмом «Колибри» – Hummingbird. Новшество данного алгоритма заключается в том, что он способен понимать даже скрытый смысл запросов. К примеру, если вы введете «купить что-либо около дома» Hummingbird по мет, что имеются в виду оффлайн-магазины.

А из интернет-магазинов он выберет лишь те, на сайтах которых максимально подробно описана информация об условиях доставки и их преимуществах. Помимо этого, алгоритм Hummingbird предпочитает длинные, подробные запросы. Но при этом по тем запросам, по которым Google не сможет «пофантазировать», выдача не изменилась.

Как сделать все ячейки одного размера в Гугл таблице

В завершение всего стоит отметить, что российский Google – один из наиболее удобных вариантов работы поисковой системы.

В России Google не использует большую часть своих «карательных» санкций. Благодаря этому продвижение сайтов для данной системы в России намного проще, чем для других поисковиков.

Пингвин и Панда, что дальше

алгоритмя пингвин и панда

4.10. 2013 вышел алгоритм Пингвин 2.1

Как и ранее поисковик Google обращает внимание на подозрительные сайты и анкор-листы. Данное обновление алгоритма отразилось на ранние попадавшие под санкции алгоритма сайты. Затронуло 1% запросов.

Читать по теме: Внутренние факторы ранжирования: на что обратить внимание наполняя сайт материалом

19.05. 2014 год вышло обновление Панда 4.0

Самое серьёзное обновление данного поискового алгоритма. Затронуло 7.5% поисковых запросов.

24.08. 2014 год, алгоритм Голубь

Алгоритм обратил внимание на геозависимые запросы. Теперь, при получении геозависимого запроса поисковик Google дает наиболее информативные, локальные результаты поиска для пользователя.

23.09. 2014 год. Обновление алгоритма Панда 4.1

Данное обновление основывалось на обобщении всех жалоб и комментариев от пользователей по алгоритму Panda 4.

17.10. 2014 год. Алгоритм Пингвин 3.0

Алгоритм работы с гугл

Интернет часто называет сетью, потому что он пронизан гиперссылками и все ресурсы (даже конкуренты) связаны между собой. Приток посещаемости сайтам обеспечивают переходы и конкуренция. Сейчас для того, чтобы найти нужную нам информацию, мы в большинстве случаев обращаемся к поиску.

Алгоритмы поисковых систем

Что такое поисковые алгоритмы?

Способы отсева сайтов, не отвечающих правилам сайтостроения. Были придуманы, чтобы сделать более здравой и честной конкуренцию и отбор лучших сайтов в поиске.

Ресурсы, у которых более понятный интерфейс, доступные и понятные тексты, разнообразные материалы, станут более успешными. И в итоге поднимутся выше в поиске. Иначе говоря будут лучше ранжироваться.

Как работают поисковые алгоритмы

В основе работы поисковых алгоритмов находится сложная математика и машинное обучение. Выдача любого поисковика просчитываются формулами, которые и составляют чарт популярности сайтов. Ключевые слова и результаты выдачи базируются на статистике посещений и тематических запросов.

Если максимально упростить для конечного пользователя, то «верхние» сайты в списке на странице Гугла получаются на основании ключевиков из тех слов, которые вводят пользователи сайтов. Потом собранная статистика обрабатывается алгоритмами поиска, создается ранжир сайтов.

Релевантность — соответствие результата запросу пользователя.

Как работают со ссылками поисковые алгоритмы Google

поисковые алгоритмы google

Google — пионер в вопросах «ценности» линков. Все произошло во время разработки собственного Индекса Цитирования. ИЦ — первый механизм, аккумулирующий и количество, и качество внешних ссылок. Гугл задал стандартизацию релевантности, тем самым обеспечив бум роста корпорации и веб-технологий одновременно.

Изначально «по версии Гугла» ранжир сайтов начинался от пиара и лишь затем учитывал контент. В дальнейшем были добавлены определенная региональная специфика и свежесть информации. Фактически, оперируя этими четырьмя критериями, и сегодня можно составить неплохой чарт веб-страниц из той или иной отрасли.

В 2000 была придумана форма подсчета пиара HillTop. Это была первая попытка оценить авторитет той или иной страницы. Google выделил некоммерческие проекты и доверенные сайты в особую категорию.

В 2003 впервые представлена система, нанесшая удар по SEO. Алгоритм Флорида попросту пропускал большой, как бы сейчас сказали, «заспам». Брать количеством анкоров уже бы не получилось. Через некоторое время были также введены оценки качества индексируемых страниц и само количество обрабатываемого материала.

2011 — год рождения «панда-копирайтинга». Алгоритм Панда впервые начал проверять качество выпущенных материалов на предмет литературной ценности, связности, легкости чтения материалов на сайтах.

Неопознанный лемур Google что это

В 2012 году был реализован алгоритм Пингвин, призванный анализировать и наказывать сайты с неестественно большим объёмом ссылок. Один из тех алгоритм, которые преобразили поиск и навсегда изменили и усложнили жизнь SEO-специалистам.

В том же году выпустили Антипиратский апдейт. Из названия ясно, что алгоритм борется с копированием контента.

Колибри — это алгоритм, внедряющий в поиск более гибкий анализ потребностей клиента в поиске. После его появления запросы стали анализироваться не по формальным ключевым словам, а по интентам. Появился в 2013 году.

Как работает Яндекс

поисковые алгоритмы яндекса

Всерьез разработкой поисковых алгоритмов Яндекс занимается с 2007 года, когда компания решила составить конкуренцию Гуглу. Через год выходит поисковый алгоритм Магадан, обрабатывающий транслитерацию и аббревиатуры. Тогда же продолжается кампания по внедрению в выдачу электронных энциклопедий — абсолютная новинка для отечественных поисковиков.

Еще через два года, с релизом под кодовым наименованием «Конаково» Яндекс также начал проводить глубокую региональную ранжировку, а в 2010 практически параллельно с Гуглом была введена оценка качества текстов. Появилась возможность с высокой степенью надежности выявить и оценить авторский текст. С алгоритмом «Обнинск» копирайтинг на русском языке поднялся в качестве, а коммерческие тексты приняли современный вид.

В целом Яндекс считается скорее русскоязычным поисковиком, однако на практике искать им некоторые англоязычные сайты даже удобнее. Мастера СЕО умело играют на неполном соответствии авторского законодательства РФ и США. Потому часть сайтов, которые по американским законам имеют ограниченный или совсем закрытый доступ через Гугл, охотно вкладываются в продвижение по алгоритмам Яндекса. С 2011 года новый алгоритм Рейкьявик усовершенствовал и выдачу на латинице, в первую очередь — англоязычной. С выходом же на турецкий рынок Яндекс стал полноценным межрегиональным поисковым гигантом.

Результатом многих лет анализа и разработки механизмов ранжирования стал полный

Актуальным алгоритмом Яндекса с 2018 является Андромеда. Она сменила предыдущую версию «Королев», её функция — улучшенная интеграция сервисов Яндекса. Благодаря «Андромеде» рекомендации в Яндекс.Картах уже вполне могут составить конкуренцию картам от Гугл. Яндекс.Справочник тоже эволюционировал и пользуется заслуженно растущей популярностью.

Заключительная часть

Всю свою многолетнюю историю поисковые системы боролись с попытками веб-специалистов взломать логику выдачи. Долгое время SEO — специалисты пользовались несовершенством логики поисковиков и поднимали в поиске мало полезные сайты. Спустя чуть больше десятилетия поиск пришёл к тому, что для наиболее органичных результатов поиска нужно изучать паттерны поведения человека. Минимизировать математические способы нормирования количество ссылок, ключевых фраз, слов в заголовке. По сути алгоритмы изжили себя.

Все современные поисковики несомненно эволюционируют. Контент—мейкеры теперь зачастую заняты откровенным спамом, поскольку стиль написания меняется со значительной инерцией. Недобросовестные владельцы сайтов предпочитают просто начинить свои тексты «популярными» словами, тем самым выводя собственный ресурс повыше. Вдобавок, сильно изменили ситуацию возможности автоматизации. Спамные сайты сейчас практически не пишут «вручную», заполнение материалов происходит по шаблону и очень быстро.

В результате авторы уникального контента оказались в заведомо проигрышной позиции. Невозможно обогнать робота по чисто количественным показателям выдачи текста. Поэтому поисковики пошли навстречу обладателям сайтов с уникальным контентом. Методы не законсервированы, однако теперь гораздо труднее продвигать сайт исключительно спамом.

Эволюция алгоритмов — прямая реакция на новые способы продвижения сайтов. Одним из наиболее эффективных критериев проверки оказался фильтр «Баден-Баден», исключающий избыточное количество повторов и приводящий к максимально естественному тексту. Проверять на «Баден-Баден» можно многими сервисами, один из удобнейших — сайт Ашманова.

Если после прочтения текста вам осталось что-то непонятно, вы можете посмотреть всю приведенную терминологию на странице .

Источник: fo.ru

Рейтинг
Загрузка ...