Создаем сайты, которые клиенты не забудут! |
Google опубликовал новый справочный документ под названием «Руководство по алгоритмам поискового ранжирования», где описываются все значимые поисковые технологии: как актуальные, так и те, которые больше не используются в поиске, либо были включены в другие алгоритмы.
Среди действующих алгоритмов значатся:
1. BERT (Bidirectional Encoder Representations from Transformers) – это метод обработки естественного языка, основанный на использовании нейросетей новой архитектуры для работы с последовательностями, известных как «трансформеры». Эта технология помогает Google лучше определять контекст слов в поисковых запросах.
2. Кризисное информирование (Crisis information) – для предоставления пользователям полезной и своевременной информации во время кризисных ситуаций, как личностных, так и объективных – стихийных бедствий, эпидемий и др.
3. Дедупликация (Deduplication) – для очистки результатов поиска от дублирующихся страниц и сниппетов (избранных фрагментов).
4. Ключевые слова в доменах (Exact match domain) – для предотвращения попадания на первые места в выдаче страниц доменов, с точным соответствием запросу.
5. Свежесть контента (Freshness) – для отображения наиболее актуальных результатов по запросам, касающимся недавно произошедших событий/релизов/премьер и других «горячих» тем (новости, обзоры, практически полезная информация).
6. Полезность контента (Helpful content) – для предотвращения попадания на первые места в выдаче неоригинального и низкокачественного контента, созданного исключительно для хорошего ранжирования в поисковой системе, а не для того, чтобы помогать или информировать людей.
7. Анализ ссылок и PageRank (Link analysis systems and PageRank) – для понимания того, как страницы ссылаются друг на друга, и какие из них являются наиболее полезными в ответе на запрос. А также для оценки ссылочного графа сайта и авторитетности ссылающихся страниц.
8. Локальные новости (Local news) – для выявления и показа пользователю новостей из местных источников
9. MUM (Multitask Unified Model) – ИИ-технология для обработки сложных поисковых запросов. Пока не используется в общем поисковом ранжировании, а только для улучшения некоторых функций поиска – например, в мультипоиске и создании избранных фрагментов (Featured Snippet).
10. Нейронное сопоставление (Neural Matching, NM) – ИИ-технология, используемая для лучшего связывания слов с концептами – сопоставление поисковых запросов и веб-страниц без учета других факторов.
11. Уникальный контент (Original content) – для поиска и лучшего ранжирования первоисточников.
Увеличьте прибыль через SEO: больше посетителей, больше заказов! |
12. Пессимизация на основе удаления (Removal-based demotion)– понижение в ранжировании ресурсов, содержащих большой объем контента, подлежащего удалению – нарушающего авторские права, либо содержащего персональную информацию.
13. Удобство страницы (Page Experience) – для выявления и более высокого ранжирования страниц, обеспечивающих отличный пользовательский опыт – быстро загружаются, адаптированы для мобильных устройств, не содержат навязчивой рекламы и т.д.
14. Ранжирование фрагментов (Passage Ranking) – ИИ-технология для лучшего понимания страниц с хорошим, но плохо структурированным контентом. Умеет понимать содержание фрагментов текста и сортировать их по релевантности.
15. Ранжирование отзывов (Product reviews) – для приоритетного ранжирования развернутых, экспертных и достоверных отзывов о товарах или услугах.
16. RankBrain – ИИ-технология, помогающая поиску понимать связь слов и концепций, позволяя предоставлять релевантный контент по запросу, даже если он не содержит точного вхождения ключевых слов.
17. Достоверность информации (Reliable information) – для показа в результатах поиска максимально достоверной информации, путем выявления наиболее авторитетных страниц и понижения некачественного контента.
18. Разнообразие доменов (Site diversity)– позволяет не показывать больше двух результатов c одного и того же домена в топе поисковой выдачи по запросу. Исключением являются случаи, когда большее количество результатов с одного домена обеспечивает большую релевантность по определенному запросу.
19. Обнаружение спама (Spam detection)– включает ряд технологий, направленных на обнаружение спама в интернете, в том числе и SpamBrain, основанную на искусственном интеллекте.
В Google отметили, что все актуальные алгоритмы ранжирования регулярно совершенствуются путем тщательного тестирования и оценки. Об особенно значимых обновлениях алгоритмов поисковик уведомляет на специальной странице, когда считает, что они могут быть полезны создателям контента и другим лицам.
Также представитель Google Дэнни Салливан сообщил, что в будущем поисковик перестанет называть алгоритмы ранжирования «обновлениями» (update), чтобы не вводить никого в заблуждение:
«В будущем мы будем более точны с нашими формулировками, отличая алгоритмы от обновлений. Да, у нас все еще будут такие вещи, как «полезное обновление контента» или «обновление обзоров продуктов», но по возможности, мы будем объяснять, что это обновления соответствующих алгоритмов, таких как «полезность контента» и «ранжирование отзывов». Мы также внесем соответствующие изменения в нашу справочную информацию, чтобы отразить это изменение терминологии».
Сведения об алгоритмах, которые больше не используются поиском, либо стали частью других технологий, приводятся исключительно в качестве «исторически значимой» информации:
- Колибри – был выпущен в 2013 году и больше не используется.
- Mobile friendly – был запущен в 2015 году, а затем стал частью алгоритма Page Experience.
- Page Speed – заработал в 2018 году, теперь является частью алгоритма Page Experience.
- Панда – был запущен в 2011 году, с тех пор эволюционировал и в 2015 году стал частью основного алгоритма ранжирования Google.
- Пингвин – заработал в 2012 году, в 2016-м стал частью основного алгоритма ранжирования Google.
Разработка сайтов профессионально означает создание веб-ресурсов с соблюдением высоких стандартов качества, эффективности и современных технологий. Такой подход подразумевает использование передовых методик и инструментов, а также учет специфических потребностей бизнеса и целевой аудитории.
Профессиональная разработка включает использование актуальных технологий и фреймворков, таких как HTML5, CSS3, JavaScript, PHP, Python и других. Это обеспечивает безопасность, скорость и стабильность работы сайта.
Профессиональная разработка сайтов включает базовую SEO-оптимизацию, что позволяет улучшить видимость сайта в поисковых системах. Это может включать правильное использование ключевых слов, оптимизацию метатегов и структуры сайта.
Разработка сайтов профессионально — это комплексный и ответственный процесс, который требует участия высококвалифицированных специалистов и использования современных технологий. Это позволяет создать качественный продукт, который соответствует требованиям бизнеса и предоставляет положительный опыт для пользователей.