
Привет всем, просто небольшое обновление от меня, как от человека, который уже некоторое время строит и управляет веб-сайтами. На этой неделе Google внес некоторые изменения, которые влияют на несколько ключевых моментов. Во-первых, немного изменится способ отображения удобных глубоких ссылок во фрагментах результатов поиска. Во-вторых, Google становится строже в отношении того, как он читает ваш файл robots.txt, поэтому обязательно перепроверьте его! В-третьих, способ использования ИИ в Поиске для помощи пользователям развивается. И, наконец, из ЕС поступают новые правила о том, как ИИ-чат-боты обрабатывают пользовательские данные, о которых важно знать. Просто хотел предупредить вас об этих изменениях, чтобы вы были в курсе событий.
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)Вот что имеет значение для вас и вашей работы.
Google публикует лучшие практики для глубоких ссылок «Read More».
Google недавно обновил свою справочную документацию, включив детали о ссылках ‘Read more’ в результатах поиска. Обновленное руководство описывает три ключевые рекомендации, которые помогут веб-сайтам чаще отображать эти ссылки.
Чтобы обеспечить корректное отображение ссылок, основной контент должен быть виден сразу после загрузки страницы. Скрытие контента в сворачиваемых разделах или вкладках может снизить вероятность его появления. Используйте заголовки (H2 или H3) для четкой организации разделов. Важно, чтобы текст, используемый для сниппетов, точно соответствовал видимому контенту на странице. Контент, который загружается только после прокрутки или нажатия, вероятно, уменьшит шансы на отображение этих ссылок.
Почему это важно
Это первый раз, когда Google дала конкретные советы о том, как работает эта функция. Сайты, которые скрывают важную информацию в расширяемых разделах (например, в разделах часто задаваемых вопросов), вкладках или контенте, который появляется при прокрутке вниз, могут получить меньше ссылок в результатах поиска Google по сравнению с сайтами, которые показывают эту информацию сразу при загрузке страницы.
Этот подход следует тренду, который Google использует со многими функциями Поиска: контент, который загружается автоматически, без необходимости нажатия или касания, с большей вероятностью будет показан визуально привлекательным образом.
Слободан Манич, основатель No Hacks, сделал схожее наблюдение в LinkedIn:
Документация фокусируется на том, как работают ссылки «читать далее» в результатах поиска, но формулировки Google звучат как более широкое руководство. Фраза «контент, сразу видимый человеку» является основным требованием к структуре страниц, а не просто предложением для ссылок «читать далее».
Манич развивает свою недавнюю беседу с Шелли Уолш, где он объяснил, что многие веб-сайты не предназначены для хорошей работы с ИИ. Он считает, что как поисковые системы, так и ИИ теперь сталкиваются с одними и теми же проблемами веб-сайтов, что означает, что для исправления проблем для обоих необходимы одни и те же проверки.
При просмотре существующих страниц нам необходимо проверить, скрыта ли важная информация за ссылкой «Read more». Если раздел уже успешно использует эту функцию, мы можем использовать тот же формат для других разделов на странице, чтобы облегчить навигацию и понимание.
Google называет эти предложения «лучшими практиками» – вещами, которые могут помочь вашим глубоким ссылкам появиться в результатах поиска. Важно отметить, что это не строгие правила, и даже если вы будете следовать всем им, нет гарантии, что ваши ссылки появятся.
Прочитайте наше полное освещение: Google перечисляет лучшие практики для Read More Deep Links
Google может расширить список неподдерживаемых правил Robots.txt
Google рассматривает возможность обновления своих рекомендаций по robots.txt, используя информацию, полученную при анализе данных, собранных HTTP Archive. Об этом потенциальном обновлении говорили Гэри Ильешь и Мартин Сплитт из Google в недавнем подкасте Search Off the Record.
Исследователи Google изучили миллионы веб-сайтов, чтобы определить наиболее распространенные, но неподдерживаемые, правила, найденные в файлах robots.txt. По словам Ильиса, они опубликуют список 10-15 наиболее часто встречающихся неподдерживаемых правил, в дополнение к стандартным правилам для user-agent, allow, disallow и sitemap. Google также может улучшить свой парсер robots.txt, чтобы он был более снисходительным к опечаткам в директиве ‘disallow’, хотя они еще не установили сроки для этого обновления и не указали, какие опечатки будут приняты.
Почему это важно
Если Google обнаружит больше правил, которые он не поддерживает, владельцам веб-сайтов, использующих пользовательские настройки или сторонние инструменты, будет предоставлена более подробная информация о том, что Google упускает из виду.
Если у вас есть файл robots.txt с правилами сложнее, чем базовые user-agent, allow, disallow и sitemap, вам следует проверить эти дополнительные правила, чтобы убедиться, что Google их действительно соблюдает. Поскольку Google использует данные из HTTP Archive, который находится в открытом доступе для ознакомления в BigQuery, любой может проанализировать поведение Google.
Менее определенно, насколько хорошо Google обрабатывает опечатки. Хотя Illyes из Google предполагает, что система уже принимает некоторые неправильные написания слова ‘disallow’, она может начать распознавать еще больше со временем. Лучше проверить и исправить любые варианты написания, которые вы используете сейчас, вместо того, чтобы надеяться, что Google просто проигнорирует их.
Прочитайте наш полный обзор: Google может расширить список не поддерживаемых правил Robots.txt
ЕС предлагает Google делиться данными поиска с конкурентами и чат-ботами с искусственным интеллектом.
Европейская комиссия предложила Google разрешить конкурирующим поисковым системам, включая AI-чатботов, по всей территории ЕС и Европейской экономической зоны доступ к его данным поиска. Эти предложения пока не окончательные; отзывы от общественности собираются до 1 мая, а окончательное решение ожидается к 27 июля.
Ключевые факты: Предложение охватывает четыре категории данных, которыми делятся на справедливых, разумных и недискриминационных условиях. Категории включают данные о рейтинге, запросах, кликах и просмотрах. Право на участие распространяется на поставщиков AI-чат-ботов, которые соответствуют определению онлайн-поисковых систем в DMA. Если Комиссия сохранит право на участие в окончательном решении, квалифицированные поставщики могут получить доступ к анонимизированным данным Google Search на условиях, предложенных Комиссией.
Почему это важно
Этот план официально позволит AI-чатам обмениваться данными с поисковыми системами, как того требует DMA. Если будет одобрен после проверки, это означает, что продукты, которые в настоящее время считаются отдельными от традиционных поисковых систем — такие как многие AI-чаты — теперь будут подпадать под те же правила.
Влияние этого изменения зависит от того, где популярен ваш веб-сайт. Для сайтов, стремящихся охватить аудиторию в Европе, это может означать, что больше анонимных поисковых данных станет доступным. Это может помочь конкурирующим AI-продуктам улучшить свои результаты поиска и то, как они выбирают веб-сайты для показа.
Оказавшись за пределами Европейского Союза, правила ЕС не применяются напрямую. Однако то, как ЕС определяет, что считается ‘AI chatbot’ – особенно различие между простым чат-ботом и тем, который функционирует как поисковая система – вероятно, будет важным в будущих судебных делах.
Следите за дискуссией о том, кто может считаться AI-чатботом – это важно до 1 мая. Если Комиссия ужесточит правила, основываясь на высказываниях людей, это будет просто изменение в нормативных актах. Но если они придерживаются текущих правил, это может установить значительный стандарт для того, как классифицируются поисковые системы на основе AI.
Прочитайте наш полный обзор: Google, возможно, придётся поделиться данными поиска с соперниками.
Google добавляет новые функции поиска на основе задач.
Google улучшает свои поисковые возможности, чтобы помочь пользователям добиться большего. Теперь вы можете отслеживать снижение цен на отели прямо в Google Search, используя новую функцию. Кроме того, Google представляет способ запускать AI-управляемых помощников прямо из его AI Mode.
Как человек, который годами создаёт веб-сайты и работает с поиском, я рад нескольким недавним обновлениям Google Search. Теперь вы можете отслеживать цены на отели по всему миру прямо из строки поиска – просто включите эту функцию! Если цена отеля, за которым вы следите, снизится, Google отправит вам письмо. Они также запустили AI-агента в Search – по сути, это позволяет вам начинать задачи и выполнять их с помощью AI, всё в интерфейсе поиска. Я видел, как Rose Yao, лидер продукта в Google Search, поделилась подробностями об этих функциях на X, и я думаю, что пользователи найдут их действительно полезными.
Почему это важно
Эти новые функции переносят больше процессов непосредственно в Google. Например, Google уже некоторое время отслеживает цены на отели по городам. Расширение этого до отдельных отелей означает, что пользователи теперь могут настроить оповещения о ценах непосредственно в Google, вместо того, чтобы использовать веб-сайты отелей или другие сайты бронирования путешествий.
Получение прямых бронирований все больше связано с сильным присутствием в Google. Сайты, которые используют оповещения о снижении цен для возврата клиентов, могут обнаружить, что часть этой активности происходит в собственных инструментах отслеживания Google. Это означает, что отелям необходимо убедиться, что их профиль Google Business и списки отелей полные и актуальные, чтобы оставаться конкурентоспособными.
В LinkedIn, Daniel Foley Carter связал эту функцию с более широкой тенденцией:
Новые функции искусственного интеллекта от Google – такие как обзоры с использованием ИИ, режим ИИ и контент в рамках – все чаще перехватывают трафик, который веб-сайты обычно получают. Иронично, что Google сейчас делает то же самое – например, суммирует контент из других источников и создает контент с низкой ценностью – против чего он ранее предупреждал веб-сайты.
Прочитайте полную статью Роджера Монти: Google добавляет новые функции поиска на основе задач.
Тема Недели: Правила Пишутся.
Каждая история на этой неделе раскрывает то, что ранее было подразумеваемым или находилось в процессе реализации.
Google обновляет свои рекомендации для robots.txt, добавляя больше информации. Они также поделились советами о том, как добиться появления ссылок ‘Read more’ в результатах поиска. В Европе регулирующие органы рассматривают возможность включения AI-чатов в правила обмена данными для поисковых систем. Наконец, Google начинает тестировать новые, ориентированные на задачи функции поиска, о которых говорил Сундар Пичаи, и вы можете опробовать их с помощью переключателей в поисковой строке.
В вашей повседневной работе всё становится более чётким. Область для интерпретаций уменьшается, поскольку правила относительно того, что допустимо – что Google разрешает, и что регуляторы считают поисковой системой – чётко прописываются. Это хорошо, поскольку это создаёт более чёткие стандарты для проверки, но также означает, что вы не можете полагаться на утверждение ‘мы не были уверены’ в качестве оправдания несоблюдения требований.
Смотрите также
- Основные плагины WordPress, которые должен иметь каждый сайт
- Акции FESH. ДВМП: прогноз акций.
- Руководство по robots.txt: лучшие практики для SEO
- Когда в вашем путешествии по цифровому маркетингу вам следует начать делать разметку схемы
- Локальная SEO-схема: полное руководство по локальной структурированной информации и богатым результатам
- 22 SEO-эксперта предлагают свои прогнозы на 2025 год
- Google предупреждает: параметры URL создают проблемы со сканированием
- Найдите каннибализацию ключевых слов, используя встраивание текста OpenAI с примерами
- Акции GRNT. Городские Инновационные Технологии: прогноз акций.
- Google Реклама: сообщения WhatsApp по клику
2026-04-24 16:11