Лиз Рейд из Google утверждает, что LLM открывают возможности для индексации аудио и видео.

В недавней беседе в подкасте Лиз Рейд, вице-президент Google Search, объяснила, как большие языковые модели (LLMs) влияют как на контент, который Google может включать в свой поисковый индекс, так и на то, как она персонализирует поисковые рейтинги для каждого пользователя.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

В недавнем интервью подкасту Лиз Рейд из Google объяснила, что новая технология искусственного интеллекта позволяет Google лучше понимать контент как аудио, так и видео. Она также обсудила потенциальное будущее, в котором результаты поиска будут персонализированы в зависимости от того, за какие сервисы платят пользователи.

Что нового

Мультимодальное понимание расширяет возможности Google по индексации.

По словам Рейда, способность больших языковых моделей обрабатывать различные типы контента – такие как изображения и аудио – позволяет им обрабатывать информацию, которая исторически представляла сложность для Google.

Рейд сказал ведущим:

Большие языковые модели впечатляют тем, что они могут обрабатывать различные типы информации, такие как аудио и видео, намного лучше, чем предыдущие технологии. Эта способность понимать несколько форм контента является значительным шагом вперед.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Она пошла дальше, описывая, как Google теперь может выйти за рамки простой транскрипции при анализе видео.

Теперь у вас будет гораздо более чёткое понимание как аудио-, так и видеоконтента. Помимо простого чтения транскрипта видео, вы сможете уловить общий смысл, стиль и другие важные детали.

Рейд указал на постоянную проблему с поиском: он не всегда хорошо работает для людей, не говорящих на английском языке. В таких странах, как Индия, где многие говорят на хинди и других местных языках, часто не хватает информации в этих языках в интернете. В прошлом было просто слишком сложно и дорого переводить весь интернет на каждый язык. Но теперь большие языковые модели (LLMs) делают это возможным.

Большие языковые модели позволяют переводить информацию с одного языка на другой, сохраняя её смысл, эффективно делая информацию более доступной во всем мире.

Компания Google работала над этим изменением уже некоторое время. В октябре 2025 года Рейд объяснил изданию Wall Street Journal, что Google изменил способ ранжирования результатов поиска, чтобы показывать больше коротких видео, обсуждений и контента, создаваемого пользователями.

Эти комментарии также помогают нам понять функцию Audio Overviews от Google, тестирование которой началось в Search Labs в июне прошлого года. Она создает голосовые сводки, работающие на основе искусственного интеллекта, о том, что вы находите при поиске.

Всего несколько лет назад сделать аудиоконтент доступным для поиска было нереально. В 2021 году Google и KQED экспериментировали с преобразованием аудио в текст, но технология была недостаточно точной, особенно в отношении имен и местных терминов. Однако, недавние заявления Рейда указывают на то, что эта проблема теперь решена.

Поиск с учётом подписки может изменить способ персонализации результатов.

Как SEO-эксперт, я думаю, что действительно умным шагом, который Google мог бы сделать, было бы приоритетное отображение пользователям контента, к которому они *уже* имеют доступ. Допустим, кто-то подписался на один новостной источник, но 20 статей на ту же тему находятся за платной стеной где-либо еще. Google должен легко показывать статью из источника, за который они *платят*, а не расстраивать их контентом, который они не могут прочитать. Это практический способ улучшить пользовательский опыт и вознаградить подписки.

Нам нужно показывать клиентам ту услугу, за которую они действительно заплатили, а не выделять опции, к которым у них нет доступа.

Почему это важно

Google улучшает свои поисковые возможности, чтобы лучше понимать различные типы контента, такие как подкасты и видео. Ранее Google в основном полагался на такие вещи, как названия и расшифровки, чтобы понимать эти форматы. Теперь Google может напрямую анализировать сам звук и видео, что означает, что более разнообразный контент может быть обнаружен через поиск и обеспечивает более точное понимание его ценности.

Google становится лучше в демонстрации визуального контента, такого как изображения и видео, что является хорошей новостью для брендов и создателей, которые сосредоточены на этих форматах – наконец-то он встречает аудиторию там, где она уже проводит свое время.

Как человек, который годами управлял веб-сайтами с подписками, могу сказать вам, что адаптация результатов поиска к индивидуальным подписчикам – это *огромная* возможность. Подумайте об этом – если поисковые системы понимали бы, кто платит за доступ, они могли бы показывать этим пользователям контент, который они *действительно* могут видеть. Это стало бы революцией для поддержания лояльности подписчиков и, что крайне важно, для того, чтобы наш контент, защищенный оплатой, действительно находился теми, кто готов за него платить. Прямо сейчас отличный контент часто зарывается просто потому, что находится за платной стеной, но более разумный подход к поиску мог бы это исправить.

Заглядывая в будущее

Рейд не уточнила, когда эти улучшения станут доступны. Она подчеркнула, что возможность поиска по различным типам контента уже работает, в то время как персонализированный опыт на основе подписок планируется, и некоторая основа для этого уже заложена.

Google I/O состоится 19 и 20 мая. Согласно недавнему подкасту, Google добивается значительного прогресса в разработке новых функций, и хотя разработка продвигается быстрыми темпами, некоторые из них могут быть не завершены до апреля – но все же могут быть анонсированы на мероприятии.

Смотрите также

2026-03-07 23:10