Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я могу с уверенностью сказать, что последнее обновление Bing меняет правила игры в сфере технологий поисковых систем. Будучи свидетелем эволюции поисковых систем от простых систем, основанных на ключевых словах, до сложных платформ, управляемых искусственным интеллектом, я искренне воодушевлен движением Bing к интеграции моделей большого и малого языков (LLM и SLM) в свою инфраструктуру.
Как эксперт по SEO, я в восторге от недавнего объявления Microsoft об усовершенствованиях базовой структуры поисковой системы Bing. Эти улучшения включают в себя расширенные языковые модели, такие как модели большого языка (LLM) и модели малого языка (SLM), а также инновационные стратегии оптимизации, все из которых направлены на обеспечение более эффективного и точного поиска для таких пользователей, как я.
Это обновление направлено на повышение производительности и снижение затрат на доставку результатов поиска.
В объявлении компания заявляет:
В Bing мы постоянно внедряем инновации в технологии поиска. Использование как моделей большого языка (LLM), так и моделей малого языка (SLM) — это большой шаг вперед в улучшении эффективности поиска. Хотя модели-трансформеры приносят пользу, растущая сложность поисковых запросов требует более надежных моделей.
Прирост производительности
Использование LLM в поисковых системах может создать проблемы со скоростью и стоимостью.
Чтобы решить эти проблемы, Bing обучил SLM, которые, по их утверждению, работают в 100 раз быстрее, чем LLM.
В объявлении говорится:
Получение степени магистра права (LLM) часто может быть дорогостоящим и отнимающим много времени. Чтобы повысить эффективность, мы разработали модели обучения поиску (SLM), которые примерно в 100 раз быстрее LLM с точки зрения пропускной способности. Они обеспечивают более точную интерпретацию и обработку поисковых запросов.
Bing также использует NVIDIA TensorRT-LLM для улучшения работы SLM.
TensorRT-LLM — это инструмент, который помогает сократить время и стоимость запуска больших моделей на графических процессорах NVIDIA.
Влияние на «глубокий поиск»
Согласно техническому отчету Microsoft, внедрение технологии TensorRT-LLM от Nvidia значительно улучшило функциональность «глубокого поиска».
Deep Search использует SLM в режиме реального времени для предоставления релевантных результатов в Интернете.
Первоначально исходной модели Transformer от Bing требовалось в среднем 4,76 секунды для обработки пакета из 20 запросов со скоростью обработки 4,2 запроса в секунду на экземпляр.
Как опытный веб-мастер, я заметил изрядное улучшение производительности, но ни одно из них не было таким, как при использовании TensorRT-LLM. Этому инструменту удалось сократить задержку до впечатляющих 3,03 секунды на пакет, и на этом он не остановился. Это также увеличило пропускную способность, позволив мне обрабатывать ошеломляющие 6,6 запросов в секунду для каждого экземпляра. Проще говоря, TensorRT-LLM поднял мою производительность в Интернете на новый уровень!
Это означает сокращение задержки на 36 % и снижение эксплуатационных расходов на 57 %.
Компания заявляет:
Как опытный веб-мастер, я горжусь тем, что могу обеспечить первоклассную производительность нашего продукта. Мы никогда не идем на компромиссы, когда дело касается качества, даже если это требует немного больше времени. Вот где нам пригодится TensorRT-LLM. Оптимизируя время вывода модели, мы значительно сокращаем задержку взаимодействия с пользователем без ущерба для качества получаемых результатов.
Преимущества для пользователей Bing
Это обновление приносит пользователям Bing несколько потенциальных преимуществ:
- Более быстрые результаты поиска с оптимизированным выводом и более быстрым временем ответа
- Повышенная точность за счет расширенных возможностей моделей УУЗР, обеспечивающих более контекстуализированные результаты.
- Экономическая эффективность, позволяющая Bing инвестировать в дальнейшие инновации и улучшения.
Почему переход Bing к моделям LLM/SLM имеет значение
Переход Bing на модели LLM/SLM и оптимизацию TensorRT может повлиять на будущее поиска.
Поскольку сложность пользовательских запросов возрастает, поисковым системам, таким как Bing, важно предоставлять точные и быстрые ответы. Они достигают этого, используя компактные языковые модели и сложные стратегии оптимизации.
Поскольку мы предвидим разворачивающиеся последствия, этот шаг, предпринятый Bing, знаменует собой начало новой эры в сфере поисковых систем.
Смотрите также
- Обновление ядра Google за декабрь 2024 г. уже доступно — что мы видим
- Акции KZOS. Казаньоргсинтез: прогноз акций.
- Google Ads разрешит рекламу курьеров по фэнтези-спорту и лотереям во многих штатах
- Фасетная навигация: лучшие практики для SEO
- OpenAI выпускает поиск ChatGPT: цитаты, элементы управления Robots.txt и многое другое
- 10 стратегических идей SEO и тактических советов на 2025 год и последующий период
- Будет ли в Once Human кроссплатформенная игра и кроссплатформенный прогресс?
- Google запускает новый вид «24 часа» в консоли поиска
- Акции BANE. Башнефть: прогноз акций.
- Как настроить свою первую платную поисковую кампанию
2024-12-18 05:38