Google’s New BlockRank Democratizes Advanced Semantic Search

Недавнее исследование от Google DeepMind представляет BlockRank, новый алгоритм ИИ для ранжирования результатов поиска. Он настолько эффективен, что может сделать сложные поисковые технологии доступными каждому, а не только крупным организациям. Исследователи считают, что это ‘выровняет игровое поле’ в вопросе поиска информации.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

In-Context Ranking (ICR)

Эта исследовательская работа описывает новое достижение: использование способности большой языковой модели понимать контекст для более эффективного ранжирования веб-страниц. Этот метод называется In-Context Ranking (ICR).

  1. Инструкции для задачи (например, «ранжируйте эти веб-страницы»)
  2. Кандидатские документы (страницы для ранжирования)
  3. И поисковый запрос.

В 2024 году исследователи из Google DeepMind и Google Research представили новую технику под названием ICR. Их первоначальные исследования показали, что ICR может работать так же хорошо, как традиционные поисковые системы, разработанные для информационного поиска.

Хотя это и улучшило ситуацию, это также означает, что требуется все больше и больше вычислительной мощности компьютера по мере роста количества ранжируемых веб-страниц.

Большим языковым моделям необходимо тщательно анализировать каждое слово в наборе документов, чтобы найти наиболее релевантные для поиска. Однако этот процесс становится значительно медленнее по мере увеличения количества документов, поскольку объем работы, который требуется выполнить, очень быстро растет.

Это новое исследование посвящено решению задачи повышения эффективности In-context Ranking (ICR). Исследование, под названием ‘Scalable In-context Ranking with Generative Models’, описывает метод под названием BlockRank, который позволяет эффективно масштабировать ICR.

Как разрабатывался BlockRank

Исследователи изучили, как модель фокусируется во время In-Context Retrieval и обнаружили два устойчивых поведения.

  • Разреженность междокументных блоков:
    Исследователи обнаружили, что когда модель читает группу документов, она склонна сосредотачиваться в основном на каждом документе по отдельности, вместо того чтобы сравнивать их все друг с другом. Они называют это «блочной разреженностью», что означает, что прямое сравнение между разными документами минимально. Основываясь на этом понимании, они изменили способ чтения входных данных моделью, чтобы она рассматривала каждый документ по отдельности, но при этом сравнивала их все с заданным вопросом. Это сохраняет важную часть — сопоставление документов с запросом — и пропускает ненужные сравнения между документами. Результатом является система, которая работает намного быстрее без потери точности.
  • Релевантность блока запроса-документа:
    Когда LLM читает запрос, он не рассматривает каждое слово в этом вопросе как равнозначно важное. Некоторые части вопроса, такие как конкретные ключевые слова или пунктуация, сигнализирующая о намерении, помогают модели решить, какой документ заслуживает больше внимания. Исследователи обнаружили, что внутренние паттерны внимания модели, в частности, то, как определенные слова в запросе фокусируются на конкретных документах, часто совпадают с тем, какие документы являются релевантными. Это поведение, которое они назвали «релевантность блока запроса-документа», стало тем, что исследователи могли обучить модель использовать более эффективно.

Исследовательская группа обнаружила два ключевых способа, которыми модель фокусировала своё внимание. Во-первых, они обнаружили, что модель неэффективно сравнивала документы, когда это не требовалось – закономерность, которую они назвали ‘inter-document block sparsity’. Во-вторых, они заметили, что определённые части поискового запроса часто указывали на наиболее релевантный документ – закономерность, названная ‘query-document block relevance’. Основываясь на этих выводах, они разработали новый, более эффективный подход.

Используя эти результаты, команда улучшила способность модели сосредотачиваться на важной информации и то, как она обучается. Это привело к созданию BlockRank, более быстрого и эффективного способа поиска релевантной информации за счёт устранения нерелевантных сравнений и помощи модели в расстановке приоритетов того, что имеет значение.

Оценка точности Benchmarking BlockRank

Исследователи протестировали BlockRank, чтобы оценить, насколько хорошо он ранжирует документы на трёх основных эталонных показателях:

  • BEIR
    Набор из множества различных поисковых и задач по ответам на вопросы, используемый для тестирования того, насколько хорошо система может находить и ранжировать релевантную информацию по широкому кругу тем.
  • MS MARCO
    Большой набор данных реальных поисковых запросов Bing и отрывков текста, используемый для измерения того, насколько точно система может ранжировать отрывки, которые наилучшим образом отвечают на вопрос пользователя.
  • Natural Questions (NQ)
    Эталонная задача, созданная на основе реальных поисковых запросов Google, предназначенная для проверки того, может ли система идентифицировать и ранжировать отрывки из Wikipedia, которые напрямую отвечают на эти вопросы.

Исследователи протестировали BlockRank, используя мощную языковую модель под названием Mistral, которая имеет 7 миллиардов параметров. Они сравнили её производительность с несколькими другими ведущими моделями ранжирования – FIRST, RankZephyr, RankVicuna и версией Mistral, которая была полностью дообучена для этой задачи.

BlockRank достиг результатов, равных или превосходящих другие системы во всех трех тестах. Он показал схожие результаты на MS MARCO и Natural Questions, и продемонстрировал небольшое улучшение на BEIR.

Тестирование на наборах данных MSMarco и NQ показало, что BlockRank (использующий модель Mistral-7B) работает так же хорошо, или даже лучше, чем традиционные методы тонкой настройки. Важно отметить, что он значительно быстрее и требует меньше вычислительной мощности как во время обучения, так и при использовании. Это обеспечивает практичный и эффективный способ создания систем поиска информации с использованием больших языковых моделей.

Они также отметили, что их тестирование было ограничено Mistral 7B и не включало другие большие языковые модели, что означает, что выводы применимы только к этой конкретной модели.

Использует ли Google BlockRank?

Исследование не упоминает никакого реального применения этой технологии, поэтому любые утверждения о её использовании – лишь спекуляции. Хотя понятно, почему возникает вопрос о том, как BlockRank связан с функциями, такими как AI Mode или AI Overviews, принцип работы этих функций – в частности, FastSearch и RankEmbed – значительно отличается от BlockRank. Следовательно, вероятно, он с ними не связан.

Почему BlockRank — это прорыв

Это исследование демонстрирует новую технологию, которая делает сложные системы ранжирования доступными для частных лиц и организаций, которые ранее не могли себе их позволить. Это значительный прогресс в расширении доступности высококачественных технологий ранжирования.

BlockRank улучшает способ, которым Большие Языковые Модели (LLMs) находят информацию, делая продвинутые поиски более быстрыми и эффективными. Это делает мощные инструменты поиска информации доступными для большего числа людей, потенциально ускоряя исследования, улучшая образование благодаря более быстрому доступу к релевантным материалам и помогая отдельным лицам и организациям принимать более обоснованные решения.

Поскольку эта технология более эффективна, она потребляет меньше энергии при поиске информации в приложениях больших языковых моделей. Это помогает сделать разработку и использование ИИ более экологичными.

Как SEO-эксперт, я видел много споров о том, использует ли Google это на самом деле. Честно говоря, я не нашёл никаких конкретных доказательств того, что они это делают, но было бы действительно ценно получить подтверждение непосредственно от кого-то из Google. Это то, о чём я хотел бы спросить их напрямую.

Google, похоже, готовится к выпуску BlockRank на GitHub, хотя код пока там недоступен.

Прочитайте о BlockRank здесь:
Масштабируемое контекстное ранжирование с использованием генеративных моделей

Смотрите также

2025-10-23 13:10