Google: Страницы становятся больше, и это по-прежнему имеет значение

В недавнем эпизоде подкаста Search Off the Record, Гэри Ильес и Мартин Сплитт из Google обсудили, не становятся ли веб-страницы слишком большими и как это влияет на пользователей и веб-краулеры Google.

Обсуждение началось с вопроса о том, не становятся ли веб-сайты слишком большими. Однако, Сплитт быстро указал на то, что рассмотрение общего размера веб-сайта не полезно – важен размер отдельных страниц.

Что показывают данные

Согласно Web Almanac за 2025 год от HTTP Archive, средний размер мобильной домашней страницы значительно увеличился за последнее десятилетие. В 2015 году он составлял около 845 КБ, но к июлю этого года он вырос до 2362 КБ – примерно в три раза больше.

Оба знали, что рост вероятен, учитывая, насколько сложными стали современные веб-сайты и приложения. Однако фактические результаты все равно оказались неожиданными.

Сплитт отметил, что удивительно сложно даже договориться о том, что подразумевается под термином «page weight». Люди определяют его по-разному – некоторые сосредотачиваются на базовом HTML-коде, другие – на объеме переданных данных, а третьи – на всем, что браузеру необходимо для отображения страницы.

Как лимиты сканирования Google вписываются в общую картину

Это отличается от информации, в настоящее время опубликованной в документации Google о Googlebot. Согласно Google, при сканировании веб-страницы Googlebot обрабатывает первые 2 МБ большинства типов файлов, но анализирует до 64 МБ PDF-документа.

Мы ранее объяснили, как Google обновил свою документацию, чтобы сделать эти цифры более понятными. В недавней дискуссии Ильес и Сплитт из Google также упомянули, что эти лимиты не всегда фиксированы – команды Google могут корректировать их в зависимости от того, что они сканируют.

Вопрос о структурированных данных

Особенно примечательная часть обсуждения произошла, когда Ильес затронул тему структурированных данных и раздутости веб-сайтов. Он объяснил, что эта проблема возникла из идеи, высказанной давным-давно сооснователем Google Сергеем Брином: поисковые системы должны быть способны понимать все необходимое, просто читая текст на странице.

По словам Ильеса, структурированные данные предназначены главным образом для понимания компьютерами, а не для непосредственного просмотра людьми на веб-странице. Он отметил, что добавление слишком большого количества структурированных данных, даже если они действительны, может ненужно раздуть страницу. Он не предложил окончательного решения, а скорее подчеркнул баланс между использованием структурированных данных и поддержанием легковесности страниц.

Это ещё имеет значение?

Splitt подтвердил, что с его домашним интернетом скорость загрузки веб-сайтов не вызывает опасений. Однако он отметил, что более медленные подключения, особенно с ограниченными тарифными планами, такими как спутниковый интернет, делают использование данных веб-сайтов гораздо большей проблемой, когда он путешествует.

Я думал о том, почему веб-сайты кажутся медленнее на мобильных устройствах, и подозреваю, что размер страниц увеличивается быстрее, чем улучшаются скорости мобильного подключения. Мне нужно изучить данные, чтобы подтвердить это, но это моя первоначальная мысль.

По словам Ильиса, предыдущие исследования показывают, что веб-сайты, которые быстро загружаются, обычно удерживают посетителей дольше и приводят к большему количеству конверсий, хотя конкретные исследования не упоминались в обсуждении.

Заглядывая в будущее

Сплитт сказал, что планирует рассмотреть конкретные методы уменьшения размера страницы в будущем эпизоде.

Хотя большинство веб-сайтов ещё не достигли этих лимитов размеров — Web Almanac недавно обнаружил, что средний размер главной страницы для мобильных устройств составляет около 2,36 МБ — общее увеличение размера страниц по-прежнему является проблемой. Это может замедлить время загрузки и затруднить использование веб-сайтов для людей с медленным интернет-соединением или лимитами данных.

Смотрите также

2026-03-30 20:39

Новый Индекс профессий с использованием ИИ ранжирует 784 профессий по риску потери работы.

Новое исследование Туфтского университета показывает, что должности, которые с наибольшей вероятностью выиграют от помощи ИИ, также подвергаются наибольшему риску исчезновения.

Американский индекс риска потери рабочих мест из-за ИИ оценивает, насколько вероятно, что рабочие места в 784 различных профессиях, в 530 городах, во всех 50 штатах и в 20 отраслях, будут затронуты потерей рабочих мест из-за искусственного интеллекта.

Эти цифры — прогнозы, основанные на том, как быстро компании могут внедрить ИИ, а не отчеты о фактических потерях рабочих мест. Наиболее вероятный сценарий предполагает, что около 9,3 миллиона рабочих мест могут пострадать, но это число может варьироваться от 2,7 миллиона до 19,5 миллиона в зависимости от темпов внедрения ИИ.

Какие профессии сталкиваются с самым высоким прогнозируемым риском?

Писатели и авторы сталкиваются с самым высоким риском потери работы, поскольку 57% из них могут пострадать. Близко позади находятся программисты и дизайнеры веб-/цифровых интерфейсов, оба – 55%. Редакторы также подвергаются значительному риску, 54% из них могут пострадать, за ними следуют веб-разработчики – 46%.

Ожидается значительное сокращение рабочих мест в нескольких коммуникационных ролях. Аналитики по исследованию рынка и специалисты по маркетингу могут столкнуться с уменьшением количества рабочих мест на 35%, в то время как специалисты по связям с общественностью сталкиваются с еще более высоким риском в 37%. Новостные аналитики, репортеры и журналисты также имеют существенные 35% шансов потерять работу.

Предыдущие исследования, такие как Индекс экономической активности Anthropic и исследования Стэнфордского университета о раннем влиянии ИИ, были сосредоточены на том, на какие рабочие места ИИ потенциально может повлиять. Этот новый анализ идет на шаг дальше, предсказывая, насколько вероятно, что это влияние действительно приведет к потере рабочих мест.

Риск усиления и потерь идут рука об руку.

Исследователи описывают взаимосвязь между профессиями, которые улучшаются благодаря ИИ, и теми, которые находятся под угрозой исчезновения, как «связь усиления и вытеснения».

По мере того, как ИИ помогает работникам повышать эффективность, предприятия могут поддерживать производственные уровни с меньшей рабочей силой. Это влияние обычно в первую очередь ощущается на начальных и менее опытных позициях, поскольку компании склонны сокращать набор персонала, а не увольнять существующих сотрудников.

Вы наиболее четко видите эту тенденцию в таких областях, как письмо, программирование, веб-дизайн, техническое письмо и анализ данных. Эти работы требуют мышления, эффективного использования языка и следования четкой структуре – все то, с чем большие языковые модели справляются хорошо.

По Отраслям

В среднем, компании во всех отраслях имеют около 6% своей рабочей силы, потенциально подверженной риску потери работы. Информационный сектор сталкивается с самыми большими прогнозируемыми потерями в размере 18%, за ним следуют Финансы и Страхование, а также Профессиональные, Научные и Технические Услуги, оба в размере 16%.

Разработчики программного обеспечения, аналитики по управлению и аналитики по исследованию рынка, по прогнозам, столкнутся с наибольшим общим снижением доходов. Поскольку эти профессии хорошо оплачиваются и на них работает большое количество людей, они составляют значительную часть потенциальных 757 миллиардов долларов ежегодного дохода, которые могут быть затронуты.

Что анализ не включает.

Эта версия не содержит информации о количестве создаваемых рабочих мест. Исследователи планируют добавить эти данные в будущем, по мере сбора дополнительных доказательств.

Этот анализ не включает такие факторы, как государственное регулирование, переговоры с профсоюзами или правила профессиональной лицензии, которые иногда могут защитить рабочие места. Представленные прогнозы основаны на возможных будущих ситуациях, а не на фиксированных предсказаниях.

Почему это важно

Многие люди, работающие с цифровыми технологиями, считают, что использование ИИ для более быстрой работы поможет сохранить их рабочие места. Но новая информация говорит о том, что это может быть не так.

Мы ранее сообщали об этой проблеме в 2023 году, когда доктор Крейг Фроле из Университета Цинциннати предсказал, что компании, не переобучающие своих сотрудников, столкнутся со значительно более высокими затратами из-за текучести кадров. Теперь новые данные из Университета Тафтса подчеркивают, какие именно рабочие места с наибольшей вероятностью способствуют этой проблеме.

Заглядывая в будущее

Американский Индекс риска потери рабочих мест из-за ИИ будет регулярно обновляться, чтобы отражать изменения в технологиях ИИ и на рынке труда. Будущие обновления будут направлены на то, чтобы показать не только рабочие места, которые потенциально могут быть потеряны из-за ИИ, но и любые новые рабочие места, созданные им, давая более сбалансированную картину влияния ИИ на занятость.

Методология доступна на сайте Digital Planet, который также содержит ссылки на страницу загрузки данных.

Смотрите также

2026-03-30 20:09

TurboQuant Имеет Потенциал Фундаментально Изменить То, Как Работает Поиск (И ИИ)

Google недавно объявила о значительном прогрессе в том, как выполняются поиски, используя нечто под названием TurboQuant. Эта новая технология может значительно улучшить результаты поиска!

TurboQuant — это набор мощных новых алгоритмов, которые значительно сокращают объем вычислительной мощности и памяти, необходимых для искусственного интеллекта. Согласно их блогу, это может оказать существенное влияние, особенно в таких областях, как поисковые системы и приложения AI.

Позвольте мне объяснить, как функционирует TurboQuant, и затем я обсужу, как это может привести к улучшениям, таким как более полные AI Overviews, AI, настроенный для каждого пользователя, невероятно быстрая индексация информации и гораздо лучшая способность предоставлять поисковые результаты, которые люди действительно ищут. Он также обещает значительные достижения в области AI как для автоматизированных задач, так и для реальных приложений.

Как работает TurboQuant

TurboQuant — это новая техника, которая значительно ускоряет создание векторных баз данных. Согласно исследовательской работе, описывающей её, TurboQuant быстрее текущих методов поиска векторов и может создать индекс поиска практически мгновенно.

Чтобы понять лежащие в основе принципы, давайте начнем с рассмотрения векторных внедрений, векторного поиска и векторной квантизации.

Векторные внедрения

Если вы только начинаете изучать векторы и векторный поиск, я настоятельно рекомендую посмотреть это видео от Linus Lee. Он предоставляет понятное объяснение того, как работают текстовые эмбеддинги.

https://www.youtube.com/watch?v=YvobVu1l7GI

Векторное внедрение – это техника, которая преобразует текст, изображения или видео в числовые представления. Эти числа захватывают смысл контента и то, как разные слова или идеи связаны друг с другом. Это действительно захватывающе! Если вам интересно узнать больше, я рекомендую ознакомиться с исследовательской работой Google Word2Vec 2013 года. Более того, вы можете вставить URL-адрес этой работы в приложение Gemini, выбрать «guided learning» и попросить Gemini объяснить ее вам. Открытие того, что вы можете выполнять математические операции над этими числовыми представлениями, стало откровением – потому что слова позиционируются в числовом пространстве на основе их контекста, вы фактически можете использовать математику для понимания их взаимосвязей.

Исследователи Google обнаружили, что в их языковой модели существует захватывающая математическая взаимосвязь. Выполняя векторное вычисление — вычитая вектор, представляющий ‘man’, из ‘king’ и затем добавляя вектор для ‘woman’, — результат удивительно близок к вектору для ‘queen’.

Вау.

Векторный поиск

Поскольку мы можем представлять слова и идеи как точки в математическом пространстве, векторный поиск по сути находит точки, которые находятся ближе всего друг к другу. Например, если вы ищете «how to grow super spicy peppers in a backyard», типичная поисковая система ищет эти точные слова. Но с векторным поиском ваш запрос преобразуется в точку в этом математическом пространстве. Контент, имеющий схожее значение с вашим запросом – даже если он не использует те же слова – появится рядом.

Я показал это на простом примере с двумя измерениями, но фактическая концепция существует в гораздо более сложном пространстве, которое нам трудно полностью понять.

Vector Quantization

Векторный поиск — действительно эффективный инструмент, но он требует большого количества компьютерной памяти, особенно при работе со сложными данными. Это использование памяти может замедлить поиск наиболее похожих результатов — процесса, который имеет решающее значение для таких функций, как Google Search. Векторная квантизация помогает решить эту проблему, уменьшая размер данных, используемых в поиске, аналогично тому, как zip-файл сжимает большой документ.

Векторная квантизация, хотя и полезна для сжатия, к сожалению, снижает качество конечных результатов. Она также требует небольшого дополнительного объема памяти для вычислений, что иронично нивелирует преимущества сжатия.

Как TurboQuant решает проблему с памятью

TurboQuant уменьшает размер больших наборов данных, упрощая их структуру посредством вращения. Это позволяет представить каждую часть данных меньшим количеством, более управляемых символов или чисел. Это сопоставимо с тем, как работает сжатие JPEG – оно сохраняет существенную информацию, значительно уменьшая необходимое количество места для хранения.

Хотя этот метод сжатия эффективен, он иногда может создавать небольшие, незаметные ошибки. TurboQuant решает эту проблему, используя технику, называемую QJL, для выявления и исправления этих крошечных ошибок, и требует лишь минимальное количество памяти – всего один бит. Это значительно уменьшает размер вектора без потери точности, что позволяет AI-системам обрабатывать информацию гораздо быстрее.

Я загрузил исследовательскую работу и объявление Google о TurboQuant в NotebookLM и попросил его объяснить это более простыми словами.

Как человек, который годами управлял веб-сайтами, я всегда боролся с проблемой скорости загрузки – и использование памяти часто является виновником. TurboQuant от Google – это умное решение. Представьте себе это как упаковку переездного грузовика. Старые методы сжатия просто *заставляют* всё поместиться, сдавливая его в процессе. Это похоже на повреждение данных, и в конечном итоге, это означает, что Google не может предоставить лучшие результаты поиска. TurboQuant использует другой подход – он гораздо умнее обращается с информацией.

TurboQuant использует уникальный подход к обработке данных. Вместо простого сжатия информации, он преобразует большие и неуклюжие наборы данных в аккуратные, однородные кубы, используя математические процессы. Любые небольшие несовершенства, создаваемые в ходе этого преобразования, затем плавно исправляются крошечным фрагментом данных – по сути, «волшебной лентой» – восстанавливая данные до их первоначального качества.

Я понимаю, что это может быть всё ещё немного непонятно. Чтобы лучше это объяснить, я использовал NotebookLM для создания видео, которое вы можете найти здесь:

https://www.youtube.com/watch?v=Sg0MEg5wWVE

Вам не нужно знать технические детали TurboQuant, просто то, что он позволяет вам быстро искать и организовывать огромные объемы данных, используя систему, называемую векторным внедрением.

Что означает TurboQuant для поиска?

В настоящее время поиск по большим наборам данных с использованием векторов часто бывает медленным и не всегда дает точные результаты. Однако новая техника под названием TurboQuant значительно ускоряет процесс и повышает точность. Согласно исследовательской работе, описывающей TurboQuant, она может сократить время, необходимое для подготовки данных к векторному поиску, практически до нуля.

Это напомнило мне показания инженера Google Панду Найака о RankBrain во время недавнего судебного процесса Министерства юстиции против Google.

Во время фазы тестирования Наяк объяснил, что они сначала использовали стандартные методы поиска для создания первоначального списка результатов. Затем был применён RankBrain для уточнения этого списка, переупорядочивая первые 20–30 результатов. Они ограничили использование RankBrain этим меньшим набором результатов, поскольку это был вычислительно сложный процесс.

Как эксперт по SEO, я действительно рад тому, что TurboQuant предлагает. На протяжении многих лет самым большим препятствием для масштабирования векторного поиска – и полноценного использования таких вещей, как семантический поиск – было время и ресурсы, необходимые для индексации данных и хранения этих огромных векторных баз данных. Но если TurboQuant сдержит свое обещание почти мгновенной индексации и значительно сниженных требований к памяти, этот ценовой барьер по сути исчезнет. Мы говорим о возможности легко осуществлять поиск по *тысячам* документов, а не только по ограниченному набору из 20 или 30. Это меняет правила игры для контент-стратегии и предоставления релевантных результатов.

TurboQuant позволяет Google выполнять семантический поиск в огромном масштабе.

Мы можем увидеть, что произойдет что-то из следующего:

Действительно полезный и интересный контент, отвечающий конкретным потребностям и намерениям пользователя, может быть более легко обнаружен.

Google полагается на искусственный интеллект, чтобы понять намерения, стоящие за поисковым запросом, а затем снова использует ИИ для предсказания того, какие результаты будут наиболее полезными. TurboQuant разработан для ускорения этого процесса предсказания и расширения спектра вариантов, которые ИИ рассматривает при выдаче рекомендаций.

Я понимаю – вы, вероятно, задаетесь вопросом, зачем создавать контент, если AI Overviews уже дают людям ответы. Это вполне обоснованный вопрос, и, честно говоря, он заслуживает более подробного обсуждения. Но вот мое мнение: некоторые материалы просто не стоят того, чтобы их создавать, особенно если все, что они делают, это собирают и организуют существующую информацию. Однако, если вы можете создавать контент, который *действительно* находит отклик у людей – что-то, что они предпочтут ответу, сгенерированному ИИ – это невероятно ценно. Это абсолютно возможно, и вы – доказательство – вы читаете это прямо сейчас, вместо того чтобы просто получать быстрый ответ от ИИ, не так ли?

Мы можем увидеть больше AI Overviews

Хотя некоторым людям это может не нравиться, AI Overviews всё чаще оказываются полезными для пользователей. Благодаря системе под названием TurboQuant, Google может быстро находить и суммировать информацию – даже для сложных вопросов – и предоставлять мгновенный ответ на основе искусственного интеллекта.

Персонализированный поиск станет ещё более мощным.

Функция «Персональный интеллект» от Google теперь доступна во многих других странах после недавнего представления.

TurboQuant помогает Google приблизиться к созданию действительно персонального, мгновенно реагирующего ИИ-ассистента, создавая поисковую базу данных ваших прошлых взаимодействий и информации. Это соответствует более широкому видению Google, недавно изложенному генеральным директором DeepMind Демисом Хассабисом, по разработке универсального ИИ-ассистента.

Возможности агентных систем значительно улучшатся.

ИИ-агенты часто испытывают трудности с запоминанием прошлых разговоров и быстрым доступом к информации. TurboQuant решает эту проблему, предоставляя агентам практически неограниченную, мгновенно доступную долгосрочную память. Они смогут находить все, чем вы поделились – сообщения, документы, электронные письма и ваши предпочтения – за долю секунды. Кроме того, они могут легко делиться большими объемами информации с другими ИИ-агентами, открывая невероятные возможности.

Поиск с использованием зрения (скоро на очках) станет ещё более полезным.

AI очки и функции, такие как Gemini Live, могут превратить все, что вы видите, в данные, которые компьютеры могут понять. Кроме того, Search Live теперь доступен во всем мире.

Ваши очки станут для вас мощным слоем визуальной памяти. Эй, Gemini… где я оставил ключи?

Технологии, которые учатся на реальном мире, такие как самоуправляемые автомобили, такие как Waymo, будут продолжать совершенствоваться и работать более эффективно.

Роботы станут гораздо более способными.

В настоящее время, если поместить робота в типичную гостиную и попросить его убраться, он столкнётся со всеми различными предметами и не сможет понять, что с ними делать. Я считаю, что TurboQuant значительно улучшит интеллект и возможности роботов. Примечательно, что Google DeepMind недавно объединился с Boston Dynamics, и я ожидаю, что это приведёт к гораздо более быстрым достижениям в робототехнике благодаря TurboQuant.

Что нам делать с этой информацией как SEO-специалистам?

Недавно кто-то в моём онлайн-сообществе, The Search Bar, спросил, как TurboQuant повлияет на работу в области SEO. Я считаю, что это не сильно изменит работу SEO-специалистов, которые уделяют приоритетное внимание пониманию и удовлетворению того, что пользователи на самом деле ищут, а не полагаются на ярлыки или технические исправления.

Как SEO-эксперт, я вижу чёткое разделение в том, как недавние обновления AI повлияют на бизнес. Некоторые будут процветать, создавая действительно подробный и ценный контент. Но для тех, кто полагается на сбор и представление информации из сети – подумайте о новостных агрегаторах или сайтах-списках – я предвижу снижение трафика. AI Overviews от Google теперь отвечают на вопросы пользователей напрямую, а это значит, что меньше людей будут нуждаться в переходе на эти сайты-кураторы.

Этот инструмент Gemini может помочь вам изучить, как ИИ может повлиять на ваш бизнес. Я загрузил его информацией – включая этот документ – чтобы он мог проводить мозговой штурм с вами, оценивать потенциальное влияние на вашу текущую бизнес-модель и даже помогать вам придумывать новые идеи для успеха в мире, управляемом ИИ.

Marie’s Gem: Мозговой штурм о вашем будущем, когда веб становится агентурным.

Недавно я предсказал ещё одно крупное обновление Google, и оно действительно произошло даже до того, как я успел закончить статью об этом! Основное обновление марта 2026 года было выпущено непосредственно перед моей статьёй.

Меня бы не удивило, если TurboQuant будет внедрён в системы ранжирования.

Ранее я предположил, что технология MUVERA от Google является причиной изменений в их основном обновлении за июнь 2025 года. Некоторые люди сомневались в том, как Google может выпустить новую технологию и так быстро применить её к поисковым рейтингам. Однако они упустили из виду тот факт, что Google объявил о MUVERA целый год спустя после первой публикации исследования, лежащего в его основе. Такая же закономерность применима и к TurboQuant. Хотя они публично объявили о нём в марте 2026 года, оригинальная исследовательская статья была опубликована в апреле 2025 года. Это означает, что у Google было достаточно времени, чтобы улучшить и доработать свои методы ранжирования на основе искусственного интеллекта.

Если Google включит TurboQuant в запланированное обновление на март 2026 года, это значительно улучшит понимание поискового намерения и предоставит более релевантные результаты. Это означает, что Google сможет быстро предоставлять пользователям высокоточную и полезную информацию из гораздо более широкого круга источников. В результате традиционные SEO-тактики, такие как построение ссылок и написание контента специально для поисковых систем, могут стать менее важными.

Демис Хассабис, генеральный директор Google DeepMind, оценивает, что Искусственный общий интеллект – ИИ с когнитивными способностями на уровне человека – может появиться в течение следующих 5-10 лет. Он обычно объясняет, что для этого потребуется несколько ключевых достижений в области ИИ, и я думаю, что TurboQuant – один из них.

Как человек, который долгое время создаёт и оптимизирует веб-сайты, я действительно впечатлён TurboQuant. По сути, он предоставляет Google инструменты для более эффективной обработки огромных вычислительных потребностей ИИ – что означает более быструю обработку, снижение затрат и повышение производительности. Удивительно, что Ларри Пейдж предвидел потребность в чём-то подобном ещё много лет назад – здорово видеть, что это видение становится реальностью.

https://www.youtube.com/watch?v=unk8RpIrNuM

Смотрите также

2026-03-30 16:12

Сообщение о неопределенности без потери доверия

Отслеживание, откуда приходят ваши клиенты, в наши дни — сложная задача. Люди используют несколько устройств, настройки конфиденциальности ограничивают данные, а стандартные отчеты часто упрощают процесс, что значительно усложняет получение точной картины, чем многие предприятия осознают.

Часто бывает сложно чётко представить данные, потому что люди обычно ожидают простых ответов. Однако данные из реального мира обычно сложны. Когда отчёты не соответствуют тому, что люди ожидают, доверие может подорваться – не потому, что анализ ошибочен, а потому, что неотъемлемая неопределённость не была объяснена.

Ключ к хорошей отчётности прост: чётко укажите, что ваши данные доказывают, на что намекают и что остаётся неизвестным. Быть откровенным в этом не подрывает вашу работу – на самом деле, это укрепляет вашу достоверность и укрепляет доверие вашей аудитории.

Почему данные никогда не такие чистые, как кажутся.

Аналитика часто кажется неопределенной из-за того, как построены инструменты. Понимание этих ограничений упрощает их открытое и уверенное обсуждение.

Неопределенность обычно возникает в четырех распространенных областях, и эти ситуации обычно не вызваны чьими-либо ошибками.

  • Плохие новости: Ни одна реализация отслеживания не охватывает всё. Каждый метод измерения имеет встроенные слепые зоны. На самом деле, данные, которые вы собираете, реальны, но это не вся картина.

Google Analytics 4 – хороший пример того, как работает отслеживание. Он в значительной степени зависит от файлов cookie и разрешения пользователя. Если кто-то не разрешает отслеживание, посещения их веб-сайта не записываются, и с точки зрения Google Analytics как будто их никогда и не было.

Модель атрибуции на основе данных Google Analytics 4 пытается определить, какие маркетинговые усилия заслуживают признания за конверсии. Она делает это, анализируя прошлые данные и присваивая вероятности. Хотя эти оценки обычно полезны, они не являются точными. Легко ошибочно полагать, что эти смоделированные цифры столь же надежны, как простые подсчеты, когда они представлены вместе без четкого объяснения.

  • Построение конвейеров данных занимает время. Мир меняется быстрее, чем большинство аналитических систем. Это означает, что почти всегда существует разрыв между тем, что произошло, и тем, что отображается в ваших отчётах.

Google Analytics 4 обычно требуется от 24 до 48 часов, чтобы полностью обработать данные о событиях. Если вы сразу проверите отчёт, в нём может не быть всей информации. Это не ошибка – это просто особенность обработки больших объёмов данных. Однако это может ввести в заблуждение, если люди думают, что первоначальный отчёт, который они видят, является окончательным.

  • А затем есть самая большая проблема из всех: люди. Поведение реальных пользователей непредсказуемо, и модели изо всех сил пытаются его зафиксировать.

Пользователь, нашедший ваш веб-сайт через органический поиск (например, Google) и совершивший конверсию после прочтения нескольких статей в блоге в течение нескольких недель, может отображаться в Google Analytics 4 как изначально пришедший через органический поиск. Однако, если его последний визит был осуществлен через брендовый поиск или путем прямого ввода адреса вашего веб-сайта, органический поиск может не получить должного признания в ваших отчетах. Это происходит даже несмотря на то, что эти первоначальные органические визиты, вероятно, имели решающее значение для совершения конверсии.

Если вы анализировали воронки в GA4, вы, вероятно, сталкивались с этой проблемой: данные показывают реальное влияние, но система не фиксирует его полностью. Это происходит потому, что ни одна аналитическая модель не может идеально отражать нюансы реального поведения людей.

Позвольте заверить вас, если вы видите определенное поведение, это не означает, что что-то идет не так с настройкой. Как эксперт по SEO, хочу уточнить, что эти инструменты просто функционируют так, как и предполагалось, и это включает в себя признание их присущих ограничений. Речь идет о понимании того, что они *могут* и *не могут* делать, а не о предположении о неисправности.

Где скрывается неопределенность в ваших отчетах

После многих лет работы с данными веб-сайтов я усвоил, что ненадежная информация обычно не *кричит* ‘Я неточна!’. Вместо этого она действует исподтишка. Часто можно увидеть числа, представленные как идеально точные, что может быть очень вводящим в заблуждение. Это постоянное напоминание о том, что просто потому, что число *выглядит* точным, не означает, что оно *является* таковым.

Панели управления часто дают ложное чувство уверенности. Например, отчёт может показывать число, такое как ‘14,823 sessions’ или коэффициент конверсии ‘3.2%’, создавая впечатление полной точности. Однако эти цифры часто основаны на оценках, неполных данных или предположениях, что означает, что они содержат определённую степень погрешности, которая не отображается. То, как эти цифры отображаются — с кажущейся точной точностью — может быть вводящим в заблуждение, тонко намекая на то, что они более точны, чем есть на самом деле.

Модели атрибуции, хотя и полезны, всегда включают в себя определенную степень догадок при отнесении заслуг к различным маркетинговым усилиям. Будь то простая модель последнего клика или более сложный подход, основанный на данных, результаты все равно являются обоснованной оценкой. К сожалению, когда эти цифры представляются без объяснений, люди часто ошибочно принимают их за абсолютную истину.

Я узнал это на горьком опыте, но прогнозы чётко демонстрируют проблему. Говорить вещи вроде «мы ожидаем 12 000 лидов в следующем квартале» или «мы прогнозируем $5 миллионов годового повторяющегося дохода к концу года» кажется надёжным и окончательным. Однако, не понимая диапазон возможных исходов, эти прогнозы могут быть очень вводящими в заблуждение.

Все прогнозы на самом деле охватывают спектр возможных результатов. Игнорирование этой неопределенности не улучшает прогноз; оно просто затрудняет понимание того, почему прогноз оказался неверным.

Что происходит, когда вы искажаете неопределенность?

Преувеличение уверенности в аналитических отчетах имеет последствия, и большинство из них проявляются позже.

Доверие имеет первостепенное значение. Когда прогноз оказывается неточным или данные сильно расходятся с реальностью, люди не просто сосредотачиваются на этой одной ошибке. Они начинают сомневаться во всей системе отчетности, и восстановление их доверия требует времени. Если прошлые анализы были излишне оптимистичными и привели к негативным последствиям, люди естественным образом становятся скептически настроенными по отношению к будущим отчетам, даже если эти отчеты хорошо исследованы и точны.

Это также влияет на то, насколько хороши принимаются решения. Если источник данных кажется очень надежным, команды часто вкладывают в него слишком много усилий. И наоборот, если метрика выглядит действительно плохо, они могут слишком рано отказаться от чего-то, даже если данные просто неясны или не рассказывают всей истории.

Будь то переоценка или недооценка, неточная уверенность приводит к плохому планированию. Деньги выделяются на неправильные области, а планы изменяются на основе неполных данных. Часто негативные последствия этих решений не распознаются, потому что проблема на самом деле кроется в том, как информация была первоначально передана.

Неточные прогнозы и объяснения, предлагаемые задним числом, также могут навредить организации. Со временем аналитические команды могут потерять свое влияние как ключевые советники. Вместо того, чтобы активно помогать формировать решения, они рискуют превратиться просто в функцию отчетности по данным, предоставляя информацию только по запросу.

Когда это происходит, лидеры начинают принимать важные решения без достаточного тщательного анализа, что в конечном итоге наносит вред всей организации.

Как сообщить о неопределенности, не теряя свою аудиторию.

Объяснение неопределённости – это не о том, чтобы запутать людей техническими деталями. Это о том, чтобы помочь им понять, насколько надёжна каждая часть информации, чтобы они могли принимать обоснованные решения.

Несколько практических привычек делают это намного проще.

1. Используйте диапазоны вместо точечных оценок

Отображение диапазона значений даёт более точную картину данных, чем просто предоставление одного числа.

Вместо того, чтобы приводить одно точное число, например, ‘15%’, часто точнее выражать данные в виде диапазона, например, ‘от 12% до 18%’. Хотя одно число кажется более аккуратным, оно может ввести в заблуждение, поскольку реальные данные редко бывают точными. Если вы указываете конкретное число, а фактический результат отличается — скажем, 11% — люди естественным образом будут сомневаться в точности вашей первоначальной оценки.

Этот подход также приводит к более осознанным решениям. Представление широкого спектра возможностей побуждает заинтересованные стороны рассмотреть, какие действия будут наилучшими независимо от фактического результата, вместо того, чтобы зацикливаться на единственном прогнозе.

2. Чёткое разграничение между смоделированными и измеренными данными.

Всякий раз, когда вы представляете метрику, полезно уточнить, является ли это прямым измерением или расчетом, выполненным моделью. Краткая заметка рядом с метрикой обычно работает хорошо.

Понимая, что эти цифры основаны на оценках, а не на прямых подсчетах, мы должны быть менее уверены в них. Мы не можем полагаться на них так сильно, как на простые, необработанные данные.

3. Добавьте уверенность в прогнозах, выраженную простым языком.

Лицам, принимающим решения, не нужны сложные статистические детали. Простого указания того, что мы достаточно уверены, что число находится где-то между X и Y, и скорее всего, около Z, достаточно для получения полезной информации.

Мы не стремимся к сложным формулам или идеальной математике. Наша главная цель – быть понятными и простыми для восприятия.

4. Замените жаргон на язык, релевантный для принятия решений.

Когда в отчете содержится неопределенная информация, наиболее разумно сосредоточиться на том, как эта неопределенность влияет на решение, которое вам необходимо принять.

Вместо использования технического языка, такого как «широкий доверительный интервал», лучше объяснять результаты таким образом, чтобы люди могли легко их понять. Например, вместо этой фразы попробуйте сказать: «это число может заметно измениться в ближайшие недели, поэтому лучше воздержаться от принятия крупных финансовых решений». Четкие объяснения, подобные этому, действительно влияют на действия людей.

5. Нормализуйте фразу «Я ещё не знаю».

Эта проблема также связана с корпоративной культурой. Когда аналитики чувствуют спешку, чтобы дать четкие ответы, они иногда ошибочно представляют оценки как факты, избегая признания неопределенности.

После многих лет управления веб-сайтами я понял, что гораздо лучше просто признать, когда я *не* знаю чего-то. Вместо того, чтобы гадать или притворяться, я начал говорить что-то вроде: «Мне нужна дополнительная информация, прежде чем я смогу принять решение по этому поводу». Это кажется гораздо честнее и в конечном итоге приводит к лучшим результатам.

Делиться своими мыслями честно побуждает всех остальных в команде делать то же самое, что обычно приводит к более качественным и точным отчётам.

Неопределенность — это работа, а не проблема.

Легко захотеть скрыть неопределенность в отчетах, чтобы все казалось ясным и простым. Однако, делая это, мы упускаем из виду ключевую идею: неопределенность на самом деле показывает, насколько сложен мир вокруг нас.

Мир вокруг нас постоянно меняется. То, чего хотят люди, эволюционирует, способы, которыми мы отслеживаем информацию, не идеальны, и требуется время для обработки данных. Это затрудняет предсказания.

То, что что-то сложно, не означает, что анализ неверен. Во многих случаях, прямое столкновение с этими трудностями на самом деле является самым тщательным и осторожным подходом, который вы можете предпринять.

Аналитики, умеющие объяснять потенциальные неопределенности, завоевывают прочное доверие, которое трудно получить. Люди помнят, когда прогнозы оказываются неверными или результаты неожиданными, но они более снисходительны, если эти возможности обсуждались заранее.

Как только вы достигнете этого уровня, люди перестают просить вас обо всех ответах и начинают работать с вами как с коллегой, который предлагает идеи и идеи.

У тебя уже есть инстинкты. Теперь у тебя есть язык, чтобы соответствовать им.

Смотрите также

2026-03-30 15:42

Почему новый агент Google может стать поворотным моментом, связанным с трендом OpenClaw?

Google незаметно добавил новый компонент, называемый Google-Agent, в то, как он извлекает информацию из сети. Этот новый агент поддерживает Project Mariner от Google, который начался как AI-powered браузерный помощник и теперь потенциально развивается в более комплексного личного помощника, подобного инструментам, таким как OpenClaw.

OpenClaw

OpenClaw — это передовой AI-помощник, способный выполнять множество онлайн-задач. Что делает его уникальным, так это его способность создавать команды AI-агентов, где один агент выступает в роли менеджера и распределяет работу другим специализированным агентам. Вы можете запускать OpenClaw на своем компьютере или в облаке, и он работает с AI-сервисами от таких компаний, как Anthropic, Google и OpenAI.

AI-компании в Китае, такие как MiniMax, Moonshot AI (Kimi), Alibaba Cloud (Qwen) и DeepSeek, набирают популярность, поскольку предлагают значительно более низкие затраты по сравнению с ведущими американскими AI-компаниями, что способствует росту персональных AI-ассистентов.

Персональные AI-помощники становятся все более популярными и жизненно важными, поэтому OpenAI недавно пригласила Питера Штайнбергера, создателя AI-агента OpenClaw, присоединиться к их команде.

Проект Mariner от Google

Анонсированный в 2025 году, Project Mariner был специальным инструментом, изначально предлагаемым подписчикам Google AI Ultra и тем, кто участвовал в тестировании Google Labs. Он работал как веб-ассистент – пользователи могли давать ему инструкции, и он затем выполнял задачи в сети для них.

Демонстрация проекта Mariner показала, что это не совсем плавный веб-браузинг, и один пользователь описал его как ‘ещё не готовый для широкой публики’.

Видео тест-драйва Project Mariner

https://www.youtube.com/watch?v=Kxp1hNwzHc8

Переход к ИИ-агентам, называемым LAMs

Искусственный интеллект стремительно набирает популярность, особенно среди разработчиков, которые изучают способы его использования для автоматизации задач. В настоящее время ИИ помогает в таких вещах, как создание программного обеспечения, разработка плагинов для WordPress, написание постов в блогах и управление социальными сетями. Эти инструменты ИИ, часто называемые «AI agents», функционируют как автоматизированные работники, способные выполнять эти задачи самостоятельно.

Мы начинаем видеть новый тип программного обеспечения, называемый Large Action Models, или LAMs. Вместо того, чтобы просто предоставлять информацию, как многие AI-программы, LAMs определяют, что нужно пользователю, а затем самостоятельно предпринимают шаги для достижения этого – например, нажимают кнопки или используют онлайн-сервисы. Они могут работать самостоятельно или с человеком, проверяющим их прогресс. По сути, в то время как большие языковые модели *говорят* о том, что делают, LAMs действительно *делают* это.

Предстоящая WordPress 7.0, разработанная для эффективной работы с ИИ, может значительно изменить то, как предприятия создают и поддерживают веб-сайты. Инструменты ИИ, вероятно, станут все более важными в этом процессе.

Google переключает свое внимание с Project Mariner на Gemini Agent. Согласно Wired, этот шаг, который начался за день до объявления о новом краулере Agent от Google, включает в себя перенос сотрудников из Project Mariner для работы над продуктом Gemini Agent, с включением некоторых функций и знаний из Project Mariner.

Представитель Google подтвердил обновления, объяснив, что технология, созданная в рамках Project Mariner, будет использована в будущих планах компании для AI-помощников. Google уже начал интегрировать некоторые из этих технологий в существующие AI-продукты, такие как новый Gemini Agent.

Это обновление происходит, поскольку Google и другие компании, разрабатывающие искусственный интеллект, быстро работают над тем, чтобы конкурировать с мощными новыми программами, такими как OpenClaw.

Anthropic опередила Google, выпустив Claude Cowork, удобное десктопное приложение, которое позволяет любому — даже тем, у кого нет навыков программирования — легко использовать AI-помощников.

Cowork отличается от Chat тем, что позволяет Claude самостоятельно выполнять задачи. Просто скажите ему, что вам нужно сделать, как часто вы хотите получать обновления, и он будет работать над этим, держа вас в курсе. Затем вы сможете просмотреть выполненную работу позже.

Claude предоставляет полные, отполированные результаты – например, готовый электронный лист, записку или отчет – вместо того, чтобы показывать вам процесс его работы. Затем вы просматриваете работу, вносите необходимые изменения и решаете, какие следующие шаги предпринять.

Как эксперт по SEO, я всегда ищу инструменты, которые упрощают мой рабочий процесс. Claude делает именно это – я просто говорю ему, что мне нужно, и он разумно определяет самый быстрый способ это сделать. Он может подключаться к Slack, использовать Chrome для веб-исследований или даже напрямую открывать приложения на моем компьютере, если прямое подключение недоступно. Все дело в эффективности и более быстром выполнении работы!

Cowork в настоящее время доступен для загрузки для macOS и Windows.

Быстрый рост инструментов искусственного интеллекта, способных писать код, вызывает обеспокоенность в индустрии программного обеспечения. Многие опасаются, что эти инструменты позволят пользователям создавать собственное программное обеспечение, что потенциально снизит потребность в устоявшихся компаниях. Например, стоимость акций Adobe упала на 33% за последние шесть месяцев, и другие компании-разработчики программного обеспечения столкнулись с аналогичным падением.

Скриншот Поиска Google для Акций Adobe Inc.

Недавно Mistral представила Voxtral TTS, AI для преобразования текста в речь, который является одновременно доступным по цене и может работать напрямую на ноутбуках с объёмом оперативной памяти всего 3 ГБ. Это более экономичное решение, чем многие конкурирующие сервисы, которые обычно требуют ежемесячную подписку.

Удивительно, что я могу запускать AI-задачи всего с 3 ГБ оперативной памяти! Я тратил 22 доллара в месяц на ElevenLabs, но теперь могу выполнять аналогичную работу, используя оборудование, которое у меня уже есть. Я думаю, что стоимость AI-сервисов резко упадет, и это произойдет намного быстрее, чем люди ожидают.

— Niko Starus (@NikoStarus) March 28, 2026

Подключение Google-Agent

Новый агент-краулер от Google запускается действиями пользователей. Другими словами, он начинает сканирование, когда пользователь выполняет действие, которое его инициирует. Дополнительные сведения о том, как это работает, можно найти в документации Google.

Google-Agent помогает автоматизированным системам, работающим на серверах Google, получать доступ к сети и выполнять задачи по запросу пользователей, как, например, в Project Mariner. Он идентифицирует себя, используя определенные IP-адреса, перечисленные в файле user-triggered-agents.json.

На данный момент, командная строка Gemini от Google не совсем соответствует возможностям Claude Code, который создан для активного выполнения задач. Этот новый краулер Google-Agent может быть частью будущего продукта, предназначенного для более эффективной конкуренции с Claude Code.

Google снова пытается догнать, поскольку всё меняется быстро, и это обновление способа получения Google информации от пользователей, вероятно, является шагом к более эффективной конкуренции в области больших языковых моделей (LLMs).

Смотрите также

2026-03-30 13:10