WordPress откладывает выпуск версии 7.0, чтобы сосредоточиться на стабильности.

Выпуск WordPress 7.0, изначально запланированный на 9 апреля, был отложен. Эта задержка необходима для того, чтобы новая функция Real-Time Collaboration была полностью стабильной и чтобы выпуск, являющийся значительным обновлением, соответствовал высоким стандартам надёжности. WordPress 7.0 особенно важен, поскольку он включает в себя функции, которые помогут WordPress продвинуться к тому, чтобы стать системой управления контентом на базе искусственного интеллекта.

Приоритет стабильности

Мэтт Мулленвег, сооснователь WordPress, попросил команду приостановить текущий план выпуска и сосредоточиться на повышении стабильности программного обеспечения. В сообщении команде WordPress он предложил более длительный период тестирования, чтобы убедиться, что новая функция совместной работы в реальном времени работает безупречно. Он ожидает, что задержка продлится несколько недель, но считает это временной корректировкой их обычного графика выпуска.

Учитывая, сколько включает в себя 7.0 и на какой стадии мы находимся в процессе, я рекомендую вернуться к бета-релизам. Это позволит нам окончательно утвердить новые таблицы базы данных, подтвердить все функции для версии 7.0, а затем возобновить выпуск релиз-кандидатов. Хотя мы обычно сосредотачиваемся на датах выпуска, для этого важного обновления нам необходимо уделять приоритетное внимание абсолютной стабильности и предоставлять привлекательные новые функции. Люди ожидают большего от программного обеспечения сейчас, особенно с ростом разработки на основе искусственного интеллекта.

Это был особый случай, но в будущем мы должны придерживаться нашего обычного графика, стремясь к четырем релизам в год к 2027 году. Это продемонстрирует, как наши инструменты искусственного интеллекта помогают нам работать более эффективно.

Фаза Расширенного Кандидата Заменяет Откат Бета-Версии

Чтобы предотвратить проблемы с совместимостью различных систем, мы пока оставим проект на стадии тестирования. Мы будем выпускать больше тестовых версий по мере необходимости, чтобы убедиться, что всё работает плавно.

Идея возврата к бета-релизам была отклонена, поскольку это нарушило бы способ сравнения версий PHP, обновления плагинов и инструменты, которые полагаются на последовательный порядок версий. Придерживаясь сборок Release Candidate (RC), мы сохраняем всё в рабочем состоянии и получаем больше времени для тестирования и исправления любых проблем.

Совместная работа в реальном времени

Основная причина задержки — новая функция совместной работы в реальном времени. Она требует изменений в базе данных WordPress и в том, как работает редактирование. Наша команда обнаружила потенциальные проблемы со скоростью, управлением данными и тем, как эта функция взаимодействует с существующими частями WordPress.

В настоящее время, когда несколько пользователей одновременно редактируют документ, это замедляет работу системы, поскольку она временно прекращает сохранять кэшированную версию. Команда знает об этой проблеме с производительностью и исправляет её перед выпуском финальной версии.

Проектирование базы данных вызывает опасения по поводу производительности.

Разговор сосредоточился на наилучшем способе проектирования базы данных для совместной работы в реальном времени (Real-Time Collaboration (RTC)). Одна из идей заключалась в использовании одной таблицы для обработки как обновлений живого редактирования, так и поддержания всего в синхронизации. Однако некоторые отметили, что эти две задачи — редактирование в реальном времени и синхронизация — имеют очень разные требования.

Когда люди работают вместе над чем-то одновременно, это создает множество быстрых, внезапных обновлений, которые необходимо вносить практически мгновенно.

Поддержание синхронизации различных систем часто означает, что обновления происходят медленнее и включают в себя проверку каждого элемента в базе данных, что может занять время.

Помещение обоих типов данных в одну таблицу может замедлить работу и усложнить систему. Команда обсуждала использование отдельных таблиц, каждая из которых предназначена для конкретной цели, но они еще не приняли решение о плане.

Пробел в тестировании Release Candidate вызывает обеспокоенность.

Беседы в Slack-группе WordPress выявили опасения по поводу того, был ли релиз-кандидат достаточно протестирован в реальных условиях. Изменения в структуре базы данных также повышают вероятность проблем во время обновлений. Идея использования плагина Gutenberg для тестирования была отклонена, поскольку эти изменения в базе данных могли повлиять на действующие веб-сайты и потребовать сложных обновлений. Вместо этого проект продлит период релиз-кандидата, чтобы обеспечить более тщательное тестирование и собрать отзывы от большего числа пользователей.

Ограничения версий

Отсрочка запуска версии 7.0 создала некоторые неожиданные проблемы. Способ, которым мы обрабатываем версии PHP, и инструменты, которые мы используем для их управления, сделали сложным возвращение к более ранним бета-сборкам. Мы все согласились, что придерживаться процесса релиз-кандидатов – то есть двигаться вперед с RC1, RC2, RC3 и так далее – позволит поддерживать более плавный процесс и при этом позволит нам доработать продукт. Так что, это тот путь, который мы выбрали – продолжаем использовать релиз-кандидаты.

Будущий график выпусков остается прежним.

Недавняя задержка рассматривается как единичное событие. Мэтт Мулленвег объяснил, что команда планирует вернуться к своему обычному темпу выпуска, стремясь к примерно четырем релизам каждый год к 2027 году, используя ИИ для ускорения разработки.

Последствия для разработчиков и пользователей

В течение расширенной фазы тестирования разработчики могут ожидать постоянные корректировки функции Real-Time Collaboration и её базы данных. Это дополнительное время тестирования позволяет более тщательно исправлять ошибки перед официальным релизом. Для владельцев веб-сайтов и тех, кто размещает сайты, задержка указывает на то, что WordPress сосредотачивается на обеспечении стабильного опыта, особенно с этими новыми, сложными возможностями Real-Time.

Влияние RTC на хостинговые среды

Потенциальная проблема, которая пока не получила широкого освещения, заключается в том, как совместная работа в реальном времени (RTC) может повлиять на провайдеров веб-хостинга, особенно тех, кто предлагает общий хостинг. Им необходимо тщательно протестировать RTC, чтобы убедиться, что это не вызовет проблем для пользователей на общих серверах. Хотя RTC изначально будет отключен по умолчанию, его эффекты при использовании клиентами в среде общего хостинга все еще неясны. Kinsta, провайдер управляемого WordPress-хостинга, подтвердил Search Engine Journal, что в настоящее время они проводят тестирование. По мере развития этой функции Kinsta и другим веб-хостингам необходимо будет продолжать тестирование последних версий WordPress, чтобы обеспечить совместимость и стабильность.

Вероятно, большинство людей согласны с тем, что отложить выпуск WordPress 7.0 было правильным решением.

Смотрите также

2026-03-31 14:10

Как определить, какая LLM на самом деле работает для вас [Вебинар]

Прямо сейчас, поиск на базе ИИ — главная тема обсуждений для многих компаний. Мы постоянно слышим от клиентов и руководителей вопросы о том, как они могут внедрить стратегию поиска на базе ИИ.

Инстинкт подсказывает оптимизировать всё, ChatGPT, Perplexity, Gemini, и действовать быстро. Но прежде чем перераспределять бюджет или переписывать вашу GEO-дорожную карту, стоит задать более полезный вопрос:

Какой LLM на самом деле стимулирует конверсии в конкретной отрасли ваших клиентов?

Присоединяйтесь к нам на предстоящий экспертный панельный вебинар, где мы подробно рассмотрим именно это.

Что вы узнаете

Присоединяйтесь к Danielle Wood из CallRail и Natalie Johnson из SweetGlow Marketing на этом вебинаре, где они проанализируют реальные данные о конверсиях из различных Больших Языковых Моделей (LLMs). Они объяснят, как эти данные могут помочь вам улучшить вашу стратегию географического таргетинга.

В частности, вы получите:

  • Данные о конверсии от LLM-платформы, чтобы вы знали, откуда на самом деле поступает трафик с высокой заинтересованностью в каждой отрасли.
  • Чёткая структура приоритетов на основе ИИ для прекращения равномерного распределения усилий GEO и концентрации их там, где они конвертируются.
  • Модель отчётности, которая связывает активность AI-поиска с реальными бизнес-результатами, которые клиенты могут видеть и которым доверяют.

Save Your Spot

Почему стоит посетить?

Эта сессия предоставит информацию и чёткий план, чтобы доказать ценность инвестиций в AI-поиск, и поможет вам разработать высокоэффективную стратегию AI-поиска.

Присоединяйтесь к нашей прямой трансляции, чтобы получить ответы на свои вопросы напрямую от экспертной группы.

Save Your Spot

Смотрите также

2026-03-31 11:09

Google: Страницы становятся больше, и это по-прежнему имеет значение

В недавнем эпизоде подкаста Search Off the Record, Гэри Ильес и Мартин Сплитт из Google обсудили, не становятся ли веб-страницы слишком большими и как это влияет на пользователей и веб-краулеры Google.

Обсуждение началось с вопроса о том, не становятся ли веб-сайты слишком большими. Однако, Сплитт быстро указал на то, что рассмотрение общего размера веб-сайта не полезно – важен размер отдельных страниц.

Что показывают данные

Согласно Web Almanac за 2025 год от HTTP Archive, средний размер мобильной домашней страницы значительно увеличился за последнее десятилетие. В 2015 году он составлял около 845 КБ, но к июлю этого года он вырос до 2362 КБ – примерно в три раза больше.

Оба знали, что рост вероятен, учитывая, насколько сложными стали современные веб-сайты и приложения. Однако фактические результаты все равно оказались неожиданными.

Сплитт отметил, что удивительно сложно даже договориться о том, что подразумевается под термином «page weight». Люди определяют его по-разному – некоторые сосредотачиваются на базовом HTML-коде, другие – на объеме переданных данных, а третьи – на всем, что браузеру необходимо для отображения страницы.

Как лимиты сканирования Google вписываются в общую картину

Это отличается от информации, в настоящее время опубликованной в документации Google о Googlebot. Согласно Google, при сканировании веб-страницы Googlebot обрабатывает первые 2 МБ большинства типов файлов, но анализирует до 64 МБ PDF-документа.

Мы ранее объяснили, как Google обновил свою документацию, чтобы сделать эти цифры более понятными. В недавней дискуссии Ильес и Сплитт из Google также упомянули, что эти лимиты не всегда фиксированы – команды Google могут корректировать их в зависимости от того, что они сканируют.

Вопрос о структурированных данных

Особенно примечательная часть обсуждения произошла, когда Ильес затронул тему структурированных данных и раздутости веб-сайтов. Он объяснил, что эта проблема возникла из идеи, высказанной давным-давно сооснователем Google Сергеем Брином: поисковые системы должны быть способны понимать все необходимое, просто читая текст на странице.

По словам Ильеса, структурированные данные предназначены главным образом для понимания компьютерами, а не для непосредственного просмотра людьми на веб-странице. Он отметил, что добавление слишком большого количества структурированных данных, даже если они действительны, может ненужно раздуть страницу. Он не предложил окончательного решения, а скорее подчеркнул баланс между использованием структурированных данных и поддержанием легковесности страниц.

Это ещё имеет значение?

Splitt подтвердил, что с его домашним интернетом скорость загрузки веб-сайтов не вызывает опасений. Однако он отметил, что более медленные подключения, особенно с ограниченными тарифными планами, такими как спутниковый интернет, делают использование данных веб-сайтов гораздо большей проблемой, когда он путешествует.

Я думал о том, почему веб-сайты кажутся медленнее на мобильных устройствах, и подозреваю, что размер страниц увеличивается быстрее, чем улучшаются скорости мобильного подключения. Мне нужно изучить данные, чтобы подтвердить это, но это моя первоначальная мысль.

По словам Ильиса, предыдущие исследования показывают, что веб-сайты, которые быстро загружаются, обычно удерживают посетителей дольше и приводят к большему количеству конверсий, хотя конкретные исследования не упоминались в обсуждении.

Заглядывая в будущее

Сплитт сказал, что планирует рассмотреть конкретные методы уменьшения размера страницы в будущем эпизоде.

Хотя большинство веб-сайтов ещё не достигли этих лимитов размеров — Web Almanac недавно обнаружил, что средний размер главной страницы для мобильных устройств составляет около 2,36 МБ — общее увеличение размера страниц по-прежнему является проблемой. Это может замедлить время загрузки и затруднить использование веб-сайтов для людей с медленным интернет-соединением или лимитами данных.

Смотрите также

2026-03-30 20:39

Новый Индекс профессий с использованием ИИ ранжирует 784 профессий по риску потери работы.

Новое исследование Туфтского университета показывает, что должности, которые с наибольшей вероятностью выиграют от помощи ИИ, также подвергаются наибольшему риску исчезновения.

Американский индекс риска потери рабочих мест из-за ИИ оценивает, насколько вероятно, что рабочие места в 784 различных профессиях, в 530 городах, во всех 50 штатах и в 20 отраслях, будут затронуты потерей рабочих мест из-за искусственного интеллекта.

Эти цифры — прогнозы, основанные на том, как быстро компании могут внедрить ИИ, а не отчеты о фактических потерях рабочих мест. Наиболее вероятный сценарий предполагает, что около 9,3 миллиона рабочих мест могут пострадать, но это число может варьироваться от 2,7 миллиона до 19,5 миллиона в зависимости от темпов внедрения ИИ.

Какие профессии сталкиваются с самым высоким прогнозируемым риском?

Писатели и авторы сталкиваются с самым высоким риском потери работы, поскольку 57% из них могут пострадать. Близко позади находятся программисты и дизайнеры веб-/цифровых интерфейсов, оба – 55%. Редакторы также подвергаются значительному риску, 54% из них могут пострадать, за ними следуют веб-разработчики – 46%.

Ожидается значительное сокращение рабочих мест в нескольких коммуникационных ролях. Аналитики по исследованию рынка и специалисты по маркетингу могут столкнуться с уменьшением количества рабочих мест на 35%, в то время как специалисты по связям с общественностью сталкиваются с еще более высоким риском в 37%. Новостные аналитики, репортеры и журналисты также имеют существенные 35% шансов потерять работу.

Предыдущие исследования, такие как Индекс экономической активности Anthropic и исследования Стэнфордского университета о раннем влиянии ИИ, были сосредоточены на том, на какие рабочие места ИИ потенциально может повлиять. Этот новый анализ идет на шаг дальше, предсказывая, насколько вероятно, что это влияние действительно приведет к потере рабочих мест.

Риск усиления и потерь идут рука об руку.

Исследователи описывают взаимосвязь между профессиями, которые улучшаются благодаря ИИ, и теми, которые находятся под угрозой исчезновения, как «связь усиления и вытеснения».

По мере того, как ИИ помогает работникам повышать эффективность, предприятия могут поддерживать производственные уровни с меньшей рабочей силой. Это влияние обычно в первую очередь ощущается на начальных и менее опытных позициях, поскольку компании склонны сокращать набор персонала, а не увольнять существующих сотрудников.

Вы наиболее четко видите эту тенденцию в таких областях, как письмо, программирование, веб-дизайн, техническое письмо и анализ данных. Эти работы требуют мышления, эффективного использования языка и следования четкой структуре – все то, с чем большие языковые модели справляются хорошо.

По Отраслям

В среднем, компании во всех отраслях имеют около 6% своей рабочей силы, потенциально подверженной риску потери работы. Информационный сектор сталкивается с самыми большими прогнозируемыми потерями в размере 18%, за ним следуют Финансы и Страхование, а также Профессиональные, Научные и Технические Услуги, оба в размере 16%.

Разработчики программного обеспечения, аналитики по управлению и аналитики по исследованию рынка, по прогнозам, столкнутся с наибольшим общим снижением доходов. Поскольку эти профессии хорошо оплачиваются и на них работает большое количество людей, они составляют значительную часть потенциальных 757 миллиардов долларов ежегодного дохода, которые могут быть затронуты.

Что анализ не включает.

Эта версия не содержит информации о количестве создаваемых рабочих мест. Исследователи планируют добавить эти данные в будущем, по мере сбора дополнительных доказательств.

Этот анализ не включает такие факторы, как государственное регулирование, переговоры с профсоюзами или правила профессиональной лицензии, которые иногда могут защитить рабочие места. Представленные прогнозы основаны на возможных будущих ситуациях, а не на фиксированных предсказаниях.

Почему это важно

Многие люди, работающие с цифровыми технологиями, считают, что использование ИИ для более быстрой работы поможет сохранить их рабочие места. Но новая информация говорит о том, что это может быть не так.

Мы ранее сообщали об этой проблеме в 2023 году, когда доктор Крейг Фроле из Университета Цинциннати предсказал, что компании, не переобучающие своих сотрудников, столкнутся со значительно более высокими затратами из-за текучести кадров. Теперь новые данные из Университета Тафтса подчеркивают, какие именно рабочие места с наибольшей вероятностью способствуют этой проблеме.

Заглядывая в будущее

Американский Индекс риска потери рабочих мест из-за ИИ будет регулярно обновляться, чтобы отражать изменения в технологиях ИИ и на рынке труда. Будущие обновления будут направлены на то, чтобы показать не только рабочие места, которые потенциально могут быть потеряны из-за ИИ, но и любые новые рабочие места, созданные им, давая более сбалансированную картину влияния ИИ на занятость.

Методология доступна на сайте Digital Planet, который также содержит ссылки на страницу загрузки данных.

Смотрите также

2026-03-30 20:09

TurboQuant Имеет Потенциал Фундаментально Изменить То, Как Работает Поиск (И ИИ)

Google недавно объявила о значительном прогрессе в том, как выполняются поиски, используя нечто под названием TurboQuant. Эта новая технология может значительно улучшить результаты поиска!

TurboQuant — это набор мощных новых алгоритмов, которые значительно сокращают объем вычислительной мощности и памяти, необходимых для искусственного интеллекта. Согласно их блогу, это может оказать существенное влияние, особенно в таких областях, как поисковые системы и приложения AI.

Позвольте мне объяснить, как функционирует TurboQuant, и затем я обсужу, как это может привести к улучшениям, таким как более полные AI Overviews, AI, настроенный для каждого пользователя, невероятно быстрая индексация информации и гораздо лучшая способность предоставлять поисковые результаты, которые люди действительно ищут. Он также обещает значительные достижения в области AI как для автоматизированных задач, так и для реальных приложений.

Как работает TurboQuant

TurboQuant — это новая техника, которая значительно ускоряет создание векторных баз данных. Согласно исследовательской работе, описывающей её, TurboQuant быстрее текущих методов поиска векторов и может создать индекс поиска практически мгновенно.

Чтобы понять лежащие в основе принципы, давайте начнем с рассмотрения векторных внедрений, векторного поиска и векторной квантизации.

Векторные внедрения

Если вы только начинаете изучать векторы и векторный поиск, я настоятельно рекомендую посмотреть это видео от Linus Lee. Он предоставляет понятное объяснение того, как работают текстовые эмбеддинги.

https://www.youtube.com/watch?v=YvobVu1l7GI

Векторное внедрение – это техника, которая преобразует текст, изображения или видео в числовые представления. Эти числа захватывают смысл контента и то, как разные слова или идеи связаны друг с другом. Это действительно захватывающе! Если вам интересно узнать больше, я рекомендую ознакомиться с исследовательской работой Google Word2Vec 2013 года. Более того, вы можете вставить URL-адрес этой работы в приложение Gemini, выбрать «guided learning» и попросить Gemini объяснить ее вам. Открытие того, что вы можете выполнять математические операции над этими числовыми представлениями, стало откровением – потому что слова позиционируются в числовом пространстве на основе их контекста, вы фактически можете использовать математику для понимания их взаимосвязей.

Исследователи Google обнаружили, что в их языковой модели существует захватывающая математическая взаимосвязь. Выполняя векторное вычисление — вычитая вектор, представляющий ‘man’, из ‘king’ и затем добавляя вектор для ‘woman’, — результат удивительно близок к вектору для ‘queen’.

Вау.

Векторный поиск

Поскольку мы можем представлять слова и идеи как точки в математическом пространстве, векторный поиск по сути находит точки, которые находятся ближе всего друг к другу. Например, если вы ищете «how to grow super spicy peppers in a backyard», типичная поисковая система ищет эти точные слова. Но с векторным поиском ваш запрос преобразуется в точку в этом математическом пространстве. Контент, имеющий схожее значение с вашим запросом – даже если он не использует те же слова – появится рядом.

Я показал это на простом примере с двумя измерениями, но фактическая концепция существует в гораздо более сложном пространстве, которое нам трудно полностью понять.

Vector Quantization

Векторный поиск — действительно эффективный инструмент, но он требует большого количества компьютерной памяти, особенно при работе со сложными данными. Это использование памяти может замедлить поиск наиболее похожих результатов — процесса, который имеет решающее значение для таких функций, как Google Search. Векторная квантизация помогает решить эту проблему, уменьшая размер данных, используемых в поиске, аналогично тому, как zip-файл сжимает большой документ.

Векторная квантизация, хотя и полезна для сжатия, к сожалению, снижает качество конечных результатов. Она также требует небольшого дополнительного объема памяти для вычислений, что иронично нивелирует преимущества сжатия.

Как TurboQuant решает проблему с памятью

TurboQuant уменьшает размер больших наборов данных, упрощая их структуру посредством вращения. Это позволяет представить каждую часть данных меньшим количеством, более управляемых символов или чисел. Это сопоставимо с тем, как работает сжатие JPEG – оно сохраняет существенную информацию, значительно уменьшая необходимое количество места для хранения.

Хотя этот метод сжатия эффективен, он иногда может создавать небольшие, незаметные ошибки. TurboQuant решает эту проблему, используя технику, называемую QJL, для выявления и исправления этих крошечных ошибок, и требует лишь минимальное количество памяти – всего один бит. Это значительно уменьшает размер вектора без потери точности, что позволяет AI-системам обрабатывать информацию гораздо быстрее.

Я загрузил исследовательскую работу и объявление Google о TurboQuant в NotebookLM и попросил его объяснить это более простыми словами.

Как человек, который годами управлял веб-сайтами, я всегда боролся с проблемой скорости загрузки – и использование памяти часто является виновником. TurboQuant от Google – это умное решение. Представьте себе это как упаковку переездного грузовика. Старые методы сжатия просто *заставляют* всё поместиться, сдавливая его в процессе. Это похоже на повреждение данных, и в конечном итоге, это означает, что Google не может предоставить лучшие результаты поиска. TurboQuant использует другой подход – он гораздо умнее обращается с информацией.

TurboQuant использует уникальный подход к обработке данных. Вместо простого сжатия информации, он преобразует большие и неуклюжие наборы данных в аккуратные, однородные кубы, используя математические процессы. Любые небольшие несовершенства, создаваемые в ходе этого преобразования, затем плавно исправляются крошечным фрагментом данных – по сути, «волшебной лентой» – восстанавливая данные до их первоначального качества.

Я понимаю, что это может быть всё ещё немного непонятно. Чтобы лучше это объяснить, я использовал NotebookLM для создания видео, которое вы можете найти здесь:

https://www.youtube.com/watch?v=Sg0MEg5wWVE

Вам не нужно знать технические детали TurboQuant, просто то, что он позволяет вам быстро искать и организовывать огромные объемы данных, используя систему, называемую векторным внедрением.

Что означает TurboQuant для поиска?

В настоящее время поиск по большим наборам данных с использованием векторов часто бывает медленным и не всегда дает точные результаты. Однако новая техника под названием TurboQuant значительно ускоряет процесс и повышает точность. Согласно исследовательской работе, описывающей TurboQuant, она может сократить время, необходимое для подготовки данных к векторному поиску, практически до нуля.

Это напомнило мне показания инженера Google Панду Найака о RankBrain во время недавнего судебного процесса Министерства юстиции против Google.

Во время фазы тестирования Наяк объяснил, что они сначала использовали стандартные методы поиска для создания первоначального списка результатов. Затем был применён RankBrain для уточнения этого списка, переупорядочивая первые 20–30 результатов. Они ограничили использование RankBrain этим меньшим набором результатов, поскольку это был вычислительно сложный процесс.

Как эксперт по SEO, я действительно рад тому, что TurboQuant предлагает. На протяжении многих лет самым большим препятствием для масштабирования векторного поиска – и полноценного использования таких вещей, как семантический поиск – было время и ресурсы, необходимые для индексации данных и хранения этих огромных векторных баз данных. Но если TurboQuant сдержит свое обещание почти мгновенной индексации и значительно сниженных требований к памяти, этот ценовой барьер по сути исчезнет. Мы говорим о возможности легко осуществлять поиск по *тысячам* документов, а не только по ограниченному набору из 20 или 30. Это меняет правила игры для контент-стратегии и предоставления релевантных результатов.

TurboQuant позволяет Google выполнять семантический поиск в огромном масштабе.

Мы можем увидеть, что произойдет что-то из следующего:

Действительно полезный и интересный контент, отвечающий конкретным потребностям и намерениям пользователя, может быть более легко обнаружен.

Google полагается на искусственный интеллект, чтобы понять намерения, стоящие за поисковым запросом, а затем снова использует ИИ для предсказания того, какие результаты будут наиболее полезными. TurboQuant разработан для ускорения этого процесса предсказания и расширения спектра вариантов, которые ИИ рассматривает при выдаче рекомендаций.

Я понимаю – вы, вероятно, задаетесь вопросом, зачем создавать контент, если AI Overviews уже дают людям ответы. Это вполне обоснованный вопрос, и, честно говоря, он заслуживает более подробного обсуждения. Но вот мое мнение: некоторые материалы просто не стоят того, чтобы их создавать, особенно если все, что они делают, это собирают и организуют существующую информацию. Однако, если вы можете создавать контент, который *действительно* находит отклик у людей – что-то, что они предпочтут ответу, сгенерированному ИИ – это невероятно ценно. Это абсолютно возможно, и вы – доказательство – вы читаете это прямо сейчас, вместо того чтобы просто получать быстрый ответ от ИИ, не так ли?

Мы можем увидеть больше AI Overviews

Хотя некоторым людям это может не нравиться, AI Overviews всё чаще оказываются полезными для пользователей. Благодаря системе под названием TurboQuant, Google может быстро находить и суммировать информацию – даже для сложных вопросов – и предоставлять мгновенный ответ на основе искусственного интеллекта.

Персонализированный поиск станет ещё более мощным.

Функция «Персональный интеллект» от Google теперь доступна во многих других странах после недавнего представления.

TurboQuant помогает Google приблизиться к созданию действительно персонального, мгновенно реагирующего ИИ-ассистента, создавая поисковую базу данных ваших прошлых взаимодействий и информации. Это соответствует более широкому видению Google, недавно изложенному генеральным директором DeepMind Демисом Хассабисом, по разработке универсального ИИ-ассистента.

Возможности агентных систем значительно улучшатся.

ИИ-агенты часто испытывают трудности с запоминанием прошлых разговоров и быстрым доступом к информации. TurboQuant решает эту проблему, предоставляя агентам практически неограниченную, мгновенно доступную долгосрочную память. Они смогут находить все, чем вы поделились – сообщения, документы, электронные письма и ваши предпочтения – за долю секунды. Кроме того, они могут легко делиться большими объемами информации с другими ИИ-агентами, открывая невероятные возможности.

Поиск с использованием зрения (скоро на очках) станет ещё более полезным.

AI очки и функции, такие как Gemini Live, могут превратить все, что вы видите, в данные, которые компьютеры могут понять. Кроме того, Search Live теперь доступен во всем мире.

Ваши очки станут для вас мощным слоем визуальной памяти. Эй, Gemini… где я оставил ключи?

Технологии, которые учатся на реальном мире, такие как самоуправляемые автомобили, такие как Waymo, будут продолжать совершенствоваться и работать более эффективно.

Роботы станут гораздо более способными.

В настоящее время, если поместить робота в типичную гостиную и попросить его убраться, он столкнётся со всеми различными предметами и не сможет понять, что с ними делать. Я считаю, что TurboQuant значительно улучшит интеллект и возможности роботов. Примечательно, что Google DeepMind недавно объединился с Boston Dynamics, и я ожидаю, что это приведёт к гораздо более быстрым достижениям в робототехнике благодаря TurboQuant.

Что нам делать с этой информацией как SEO-специалистам?

Недавно кто-то в моём онлайн-сообществе, The Search Bar, спросил, как TurboQuant повлияет на работу в области SEO. Я считаю, что это не сильно изменит работу SEO-специалистов, которые уделяют приоритетное внимание пониманию и удовлетворению того, что пользователи на самом деле ищут, а не полагаются на ярлыки или технические исправления.

Как SEO-эксперт, я вижу чёткое разделение в том, как недавние обновления AI повлияют на бизнес. Некоторые будут процветать, создавая действительно подробный и ценный контент. Но для тех, кто полагается на сбор и представление информации из сети – подумайте о новостных агрегаторах или сайтах-списках – я предвижу снижение трафика. AI Overviews от Google теперь отвечают на вопросы пользователей напрямую, а это значит, что меньше людей будут нуждаться в переходе на эти сайты-кураторы.

Этот инструмент Gemini может помочь вам изучить, как ИИ может повлиять на ваш бизнес. Я загрузил его информацией – включая этот документ – чтобы он мог проводить мозговой штурм с вами, оценивать потенциальное влияние на вашу текущую бизнес-модель и даже помогать вам придумывать новые идеи для успеха в мире, управляемом ИИ.

Marie’s Gem: Мозговой штурм о вашем будущем, когда веб становится агентурным.

Недавно я предсказал ещё одно крупное обновление Google, и оно действительно произошло даже до того, как я успел закончить статью об этом! Основное обновление марта 2026 года было выпущено непосредственно перед моей статьёй.

Меня бы не удивило, если TurboQuant будет внедрён в системы ранжирования.

Ранее я предположил, что технология MUVERA от Google является причиной изменений в их основном обновлении за июнь 2025 года. Некоторые люди сомневались в том, как Google может выпустить новую технологию и так быстро применить её к поисковым рейтингам. Однако они упустили из виду тот факт, что Google объявил о MUVERA целый год спустя после первой публикации исследования, лежащего в его основе. Такая же закономерность применима и к TurboQuant. Хотя они публично объявили о нём в марте 2026 года, оригинальная исследовательская статья была опубликована в апреле 2025 года. Это означает, что у Google было достаточно времени, чтобы улучшить и доработать свои методы ранжирования на основе искусственного интеллекта.

Если Google включит TurboQuant в запланированное обновление на март 2026 года, это значительно улучшит понимание поискового намерения и предоставит более релевантные результаты. Это означает, что Google сможет быстро предоставлять пользователям высокоточную и полезную информацию из гораздо более широкого круга источников. В результате традиционные SEO-тактики, такие как построение ссылок и написание контента специально для поисковых систем, могут стать менее важными.

Демис Хассабис, генеральный директор Google DeepMind, оценивает, что Искусственный общий интеллект – ИИ с когнитивными способностями на уровне человека – может появиться в течение следующих 5-10 лет. Он обычно объясняет, что для этого потребуется несколько ключевых достижений в области ИИ, и я думаю, что TurboQuant – один из них.

Как человек, который долгое время создаёт и оптимизирует веб-сайты, я действительно впечатлён TurboQuant. По сути, он предоставляет Google инструменты для более эффективной обработки огромных вычислительных потребностей ИИ – что означает более быструю обработку, снижение затрат и повышение производительности. Удивительно, что Ларри Пейдж предвидел потребность в чём-то подобном ещё много лет назад – здорово видеть, что это видение становится реальностью.

https://www.youtube.com/watch?v=unk8RpIrNuM

Смотрите также

2026-03-30 16:12