
Исследователи Google разработали новый подход, названный ALDRIFT, чтобы помочь генеративным системам ИИ предоставлять ответы, которые действительно точны, а не просто кажутся правдоподобными. Их работа указывает на путь к ИИ, который выходит за рамки простого предсказания наиболее вероятного ответа.
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)Как специалист по цифровому маркетингу, я слежу за интересными исследованиями в области ИИ в последнее время. Вышла новая статья, ‘Sample-Efficient Optimization over Generative Priors via Coarse Learnability’, которая решает довольно распространенную проблему, с которой мы сталкиваемся: получение контента, сгенерированного ИИ, который был бы одновременно креативным *и* имел смысл. По сути, речь идет о балансе между необходимостью для ИИ оставаться в реалистичных рамках и нашим желанием, чтобы он достигал конкретных маркетинговых целей. Это исследование предлагает некоторые многообещающие новые способы избежать ‘ловушки правдоподобности ИИ’ – когда ИИ генерирует вещи, которые *звучат* хорошо, но на самом деле не полезны или не соответствуют бренду.
Google ALDRIFT
Эта статья представляет ALDRIFT, технику, которая улучшает генеративные модели, многократно настраивая их для поиска более эффективных решений. Она также включает в себя шаг для минимизации ошибок, которые накапливаются в течение этого процесса.
Эта статья также определяет понятие «грубая обучаемость», которое означает, что модель обучения не обязательно должна быть совершенной. Вместо этого, ей просто нужно охватить достаточно важные части возможных решений, чтобы не упустить потенциально полезные варианты слишком рано. Основываясь на этой идее, авторы демонстрируют, что ALDRIFT может эффективно изучить желаемый результат, используя разумное количество примеров.
https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text
ALDRIFT работает на двухкомпонентной системе.
ALDRIFT работает по двухкомпонентной системе:
- Генеративная модель представляет собой то, какие типы ответов остаются вероятными в рамках модели.
- Внешний процесс оценки измеряет, насколько хорошо ответ кандидата соответствует целевой задаче.
Авторы называют этот показатель «стоимостью», которая представляет собой величину штрафа за потенциальный ответ. Более низкая стоимость указывает на лучший ответ, исходя из конкретного оцениваемого требования. Однако, ALDRIFT ищет не просто любой ответ с низкой стоимостью; он ищет ответы, которые хорошо работают и также кажутся реалистичными, исходя из того, как модель генерирует текст.
Некоторые ответы ИИ должны работать как единое целое.
Исследователи разрабатывают AI-решения для практических задач реального мира, таких как определение лучших маршрутов или организация конференций.
- Планирование маршрута: В статье объясняется, что LLM может оценивать, являются ли отдельные сегменты маршрута живописными, но может испытывать трудности с обеспечением того, чтобы эти сегменты соединялись в допустимый путь.
- Планирование конференций: LLM может группировать сессии по темам, в то время как классический алгоритм может потребоваться для составления расписания этих сессий без конфликтов.
Эти примеры иллюстрируют, что просто генерация вероятных ответов недостаточно. Реальная задача заключается в создании ответов, которые имеют смысл в целом, даже если они построены из нескольких отдельных частей, работающих вместе.
Предположение о грубой обучаемости
Это исследование направлено на обеспечение согласованности и связности генерируемых ответов в целом. Авторы рассматривают это как проблему выравнивания выходных данных модели во время использования – по сути, тонкую настройку на основе того, насколько полно ответ отвечает на вопрос. Хотя работа в настоящее время носит теоретический характер и опирается на идею о том, что модель можно легко настроить, эта связь с выравниванием в реальном времени дает ей практический потенциал.
Предположение о ‘грубой обучаемости’ относится к идее о том, что теория, лежащая в основе этой работы, зависит от способности модели поддерживать достаточный диапазон потенциально хороших решений по мере улучшения.
Модели не нужно сразу находить абсолютно лучший ответ. Ей просто нужно учитывать достаточно широкий спектр возможностей, чтобы не застрять и не упустить потенциально лучшие решения.
Существующие методы оптимизации оставляют пробелы при ограниченном количестве образцов.
В статье выявляются несколько пробелов в понимании существующих методов оптимизации:
- Ограничения существующих методов: Классические методы оптимизации, основанные на моделях, полагаются на «аргументы асимптотической сходимости». Это означает, что они теоретически понятны после очень большого количества выборок, но не обязательно в практических условиях с ограниченным количеством выборок.
- Неудача с выразительными моделями: В статье говорится, что эти классические предположения «разрушаются», когда используются выразительные генеративные модели, такие как нейронные сети.
- Разрыв в понимании: Авторы утверждают, что «поведение с конечным количеством выборок» оптимизации в данной ситуации «теоретически не изучено». Это означает, что теория не полностью объясняет, как эти методы ведут себя при наличии только ограниченного количества выборок.
Как SEO-эксперт, я слежу за исследованиями в области генеративных моделей, и недавняя статья предлагает увлекательную идею под названием ‘coarse learnability’. По сути, это способ тонкой настройки этих моделей для получения *лучших* результатов, не сужая при этом их творческий диапазон. Речь идет о поиске оптимальной точки, где модель учится давать более точные ответы, сохраняя при этом широкий спектр возможностей – что крайне важно для таких задач, как создание контента и релевантность поиска.
Доказательства, полученные с помощью LLM, ограничены.
Основное математическое доказательство в этой статье сосредоточено на более простом типе ИИ-модели, называемой аналитическими генеративными моделями. Их легче изучать, чем сегодняшние большие языковые модели (LLMs). Доказательства, касающиеся LLMs, более ограничены. Авторы протестировали GPT-2 на базовых задачах, таких как планирование и задачи на графах, и результаты показывают, что идея правдоподобна, но не доказывают окончательно, что она применима к более продвинутым LLMs.
Исследования указывают на основу для будущих исследований.
Это исследование закладывает основу для понимания того, как ИИ, создающий новый контент, может работать совместно с системами, проверяющими его точность.
Исследователи Google работают над новым подходом для повышения точности ответов ИИ, решая проблему генерации ответов, которые *звучат* правильно, даже если это не так. Согласно исследованию, эта работа может привести к значительным достижениям в этой области и обеспечивает прочную основу для создания более гибких и интеллектуальных моделей ИИ.
Выводы
- Требование «Покрытие»:
Грубая обучаемость означает, что модели не обязательно изучать целевой результат идеально. Ей необходимо избегать потери полезных областей пространства ответов, где могут существовать лучшие решения. - Важен шаг коррекции:
ALDRIFT использует шаг коррекции, чтобы поиск оставался ближе к предполагаемой цели по мере того, как модель продвигается к лучшим ответам. - Двухкомпонентный подход:
Фреймворк использует разделение труда. Генеративная модель обрабатывает качественные или семантические предпочтения, в то время как отдельный процесс проверяет, работает ли ответ как полноценное решение. - Ограниченные доказательства LLM:
Тесты с GPT-2 показали поведение, поддерживающее эту идею в простых примерах планирования и связанных с графами, но не доказали, что те же предположения применимы к современным LLM. - Реальное Применение – Главная Цель:
Исследование имеет значение для SEO-специалистов и бизнеса, поскольку от ответов ИИ все чаще ожидают большего, чем просто обобщение информации. Им необходимо поддерживать решения, планы и действия, которые имеют смысл вне интерфейса чата. Хотя эта структура, вероятно, еще не используется в производстве, она показывает, что Google добивается прогресса в предоставлении ответов, которые являются более чем просто правдоподобными.
Прочитайте исследовательскую работу здесь:
Оптимизация с эффективным использованием выборок над генеративными априорными знаниями посредством грубой обучаемости (PDF)
Смотрите также
- Структурированные данные в 2024 году: ключевые закономерности открывают будущее открытий искусственного интеллекта [исследование данных]
- Получение поддержки на уровне руководителей для SEO-инициатив
- Google добавляет атрибут «Сборка на заказ» для объявлений о транспортных средствах.
- Google подтверждает, что волатильность перед обновлением ядра 2025 марта была не этим обновлением ядра
- Акции BLNG. Белон: прогноз акций.
- Google заявляет, что временные аномалии влияют на сканирование Googlebot
- 3 альткоина готовы взлететь к новым вершинам в июне 2025 года — не пропустите!
- Как оценить креативную эффективность в Meta Ads (и что тестировать)
- Подтверждено: Ошибки в Google Ads и проблемы с высокой задержкой
- Google прекращает поддержку структурированных данных для практических задач в Поиске.
2026-05-13 14:40