Google опубликовал «Руководство по алгоритмам поискового ранжирования»

Создаем сайты, которые клиенты не забудут!

Google опубликовал новый справочный документ под названием «Руководство по алгоритмам поискового ранжирования», где описываются все значимые поисковые технологии: как актуальные, так и те, которые больше не используются в поиске, либо были включены в другие алгоритмы.

Среди действующих алгоритмов значатся:

1.  BERT (Bidirectional Encoder Representations from Transformers) – это метод обработки естественного языка, основанный на использовании нейросетей новой архитектуры для работы с последовательностями, известных как «трансформеры». Эта технология помогает Google лучше определять контекст слов в поисковых запросах.

2. Кризисное информирование (Crisis information)  – для предоставления пользователям полезной и своевременной информации во время кризисных ситуаций, как личностных, так и объективных – стихийных бедствий, эпидемий и др.

3. Дедупликация (Deduplication) – для очистки результатов поиска от дублирующихся страниц и сниппетов (избранных фрагментов).

4. Ключевые слова в доменах (Exact match domain) – для предотвращения попадания на первые места в выдаче страниц доменов, с точным соответствием запросу. 

5. Свежесть контента (Freshness) – для отображения наиболее актуальных результатов по запросам, касающимся недавно произошедших событий/релизов/премьер и других «горячих» тем (новости, обзоры, практически полезная информация).

6. Полезность контента (Helpful content) – для предотвращения попадания на первые места в выдаче неоригинального и низкокачественного контента, созданного исключительно для хорошего ранжирования в поисковой системе, а не для того, чтобы помогать или информировать людей.

7. Анализ ссылок и PageRank (Link analysis systems and PageRank) – для понимания того, как страницы ссылаются друг на друга, и какие из них являются наиболее полезными в ответе на запрос. А также для оценки ссылочного графа сайта и авторитетности ссылающихся страниц.

8. Локальные новости (Local news) – для выявления и показа пользователю новостей из местных источников

  Яндекс научил нейросети расшифровывать архивные записи

9. MUM (Multitask Unified Model) – ИИ-технология для обработки сложных поисковых запросов. Пока не используется в общем поисковом ранжировании, а только для улучшения некоторых функций поиска – например, в мультипоиске и создании избранных фрагментов (Featured Snippet).

10. Нейронное сопоставление (Neural Matching, NM) – ИИ-технология, используемая для лучшего связывания слов с концептами – сопоставление поисковых запросов и веб-страниц без учета других факторов.

11. Уникальный контент (Original content) – для поиска и лучшего ранжирования первоисточников.

Увеличьте прибыль через SEO: больше посетителей, больше заказов!

12. Пессимизация на основе удаления (Removal-based demotion)– понижение в ранжировании ресурсов, содержащих большой объем контента, подлежащего удалению – нарушающего авторские права, либо содержащего персональную информацию.

13. Удобство страницы (Page Experience) – для выявления и более высокого ранжирования страниц, обеспечивающих отличный пользовательский опыт – быстро загружаются, адаптированы для мобильных устройств, не содержат навязчивой рекламы и т.д.

14. Ранжирование фрагментов (Passage Ranking) – ИИ-технология для лучшего понимания страниц с хорошим, но плохо структурированным контентом. Умеет понимать содержание фрагментов текста и сортировать их по релевантности. 

15. Ранжирование отзывов (Product reviews) – для приоритетного ранжирования развернутых, экспертных и достоверных отзывов о товарах или услугах.

16. RankBrain – ИИ-технология, помогающая поиску понимать связь слов и концепций, позволяя предоставлять релевантный контент по запросу, даже если он не содержит точного вхождения ключевых слов.

17. Достоверность информации (Reliable information) – для показа в результатах поиска максимально достоверной информации, путем выявления наиболее авторитетных страниц и понижения некачественного контента.

18. Разнообразие доменов (Site diversity)– позволяет не показывать больше двух результатов c одного и того же домена в топе поисковой выдачи по запросу. Исключением являются случаи, когда большее количество результатов с одного домена обеспечивает большую релевантность по определенному запросу.

  Дзен обновил главную страницу Студии

19. Обнаружение спама (Spam detection)– включает ряд технологий, направленных на обнаружение спама в интернете, в том числе и SpamBrain, основанную на искусственном интеллекте.

В Google отметили, что все актуальные алгоритмы ранжирования регулярно совершенствуются путем тщательного тестирования и оценки. Об особенно значимых обновлениях алгоритмов поисковик уведомляет на специальной странице, когда считает, что они могут быть полезны создателям контента и другим лицам.

Также представитель Google Дэнни Салливан сообщил, что в будущем поисковик перестанет называть алгоритмы ранжирования «обновлениями» (update), чтобы не вводить никого в заблуждение: 

«В будущем мы будем более точны с нашими формулировками, отличая алгоритмы от обновлений. Да, у нас все еще будут такие вещи, как «полезное обновление контента» или «обновление обзоров продуктов», но по возможности, мы будем объяснять, что это обновления соответствующих алгоритмов, таких как «полезность контента» и «ранжирование отзывов». Мы также внесем соответствующие изменения в нашу справочную информацию, чтобы отразить это изменение терминологии».

Сведения об алгоритмах, которые больше не используются поиском, либо стали частью других технологий, приводятся исключительно в качестве «исторически значимой» информации:

  • Колибри  – был выпущен в 2013 году и больше не используется.
  • Mobile friendly – был запущен в 2015 году, а затем стал частью алгоритма Page Experience.
  • Page Speed – заработал в 2018 году, теперь является частью алгоритма Page Experience.
  • Панда – был запущен в 2011 году, с тех пор эволюционировал и в 2015 году стал частью основного алгоритма ранжирования Google.
  • Пингвин – заработал в 2012 году, в 2016-м стал частью основного алгоритма ранжирования Google.

Разработка сайтов профессионально означает создание веб-ресурсов с соблюдением высоких стандартов качества, эффективности и современных технологий. Такой подход подразумевает использование передовых методик и инструментов, а также учет специфических потребностей бизнеса и целевой аудитории.

  На Яндекс Погоде появился прогноз для автомобилистов

Профессиональная разработка включает использование актуальных технологий и фреймворков, таких как HTML5, CSS3, JavaScript, PHP, Python и других. Это обеспечивает безопасность, скорость и стабильность работы сайта.

Профессиональная разработка сайтов включает базовую SEO-оптимизацию, что позволяет улучшить видимость сайта в поисковых системах. Это может включать правильное использование ключевых слов, оптимизацию метатегов и структуры сайта.

Разработка сайтов профессионально — это комплексный и ответственный процесс, который требует участия высококвалифицированных специалистов и использования современных технологий. Это позволяет создать качественный продукт, который соответствует требованиям бизнеса и предоставляет положительный опыт для пользователей.

Добавить комментарий