Почему ИИ неправильно интерпретирует середину ваших лучших страниц

Контент часто теряет свою силу воздействия не из-за плохого написания или незаинтересованности читателя, а из-за ограничений в том, как ИИ обрабатывает длинные тексты. Большие языковые модели испытывают трудности с длинным контекстом, и многие ИИ-системы теперь сокращают контент *до того*, как он будет проанализирован, снижая его эффективность.

Эта комбинация часто приводит к тому, что я называю «мышлением в форме кости собаки» – текст начинается и заканчивается сильно, но становится слабым и нестабильным в середине. ИИ может потерять концентрацию, отклониться от темы или выдумывать неточные детали. Даже хорошо написанная, тщательно исследованная статья может пострадать от этого, когда ИИ идеально копирует введение и заключение, но придумывает содержание, чтобы соединить их.

Это не теория, как она проявляется в исследованиях, и она также проявляется в производственных системах.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Почему происходит The Dog-Bone?

Существует две последовательно возникающие ситуации, приводящие к сбою, и они поражают одно и то же место.

Это правда, что языковые модели испытывают трудности, когда важная информация погребена в длинном тексте. Исследователи из Стэнфорда обнаружили, что эти модели работают лучше всего, когда ключевые детали находятся в начале или конце входного текста, но их точность значительно снижается, когда информация помещается в середину. Этот шаблон производительности – сильный по краям, слабый в центре – они называют ‘dog-bone pattern’.

Кроме того, в то время как модели обрабатывают все большие объемы информации, системы также становятся более эффективными в сжатии этих данных. Даже если модель *может* обработать огромный ввод, шаги, связанные с этим, часто сокращают данные, суммируют их или сжимают для экономии средств и обеспечения надежной производительности. Это делает этап обработки особенно уязвимым, поскольку это наиболее вероятная часть, которая может быть упрощена или потерять важные детали.

Как человек, который уже некоторое время разрабатывает и оптимизирует веб-приложения, я слежу за исследованиями в области обработки действительно длинных входных данных – например, огромных текстовых документов или расширенных бесед. Недавно я наткнулся на статью под названием ATACompressor, которая планируется к публикации в 2026 году на arXiv. В ней рассматривается распространенная проблема, с которой мы сталкиваемся при работе с этими длинными контекстами – информация ‘теряется в середине’. Ключевая идея – адаптивное сжатие: уменьшение менее важных частей входных данных при обеспечении сохранения того, что действительно важно для поставленной задачи. Это умный подход, который рассматривает сжатие не просто как уменьшение размера, а как способ приоритизировать релевантную информацию.

Итак, вы были правы, если когда-либо говорили кому-то «укоротить середину». Сейчас я бы предложил следующее уточнение:

Два фильтра, одна опасная зона

Представьте, что ваш контент проходит через два фильтра, прежде чем стать ответом.

  • Фильтр 1: Поведение внимания модели: Даже если система передает ваш текст полностью, способность модели использовать его зависит от позиции. Начало и конец обычно работают лучше, середина — хуже.
  • Фильтр 2: Управление контекстом на системном уровне: Прежде чем модель что-либо увидит, многие системы сжимают входные данные. Это может быть явное суммирование, усвоенное сжатие или шаблоны «сворачивания контекста», используемые агентами для поддержания небольшого объема оперативной памяти. Одним из примеров в этой области является AgentFold, который фокусируется на проактивном сворачивании контекста для веб-агентов с длинным горизонтом.

Если вы считаете эти два фильтра стандартными, область между ними становится особенно уязвимой. Она и упускается из виду, и сжимается чаще.

Эта техника использует форму ‘dog-bone’ для повышения производительности. Уменьшая объем информации в средней секции, мы напрямую решаем проблемы, связанные с фильтрацией и извлечением. По сути, мы минимизируем то, что система отбрасывает, и максимизируем полезность оставшейся информации для модели.

Что с этим делать, не превращая свой текст в техническое задание?

Мы не говорим, что длинный контент мёртв – он по-прежнему ценен для читателей и полезен для систем искусственного интеллекта, которые учатся на нём. Решение не в том, чтобы писать меньше, а в том, чтобы улучшить *как* вы структурируете свои тексты.

Вот практическое руководство, намеренно оставленное лаконичным.

Поместите «Блоки ответов» в середину, а не связный текст.

Длинные статьи часто содержат подробный, извилистый раздел посередине, где автор углубляется в тему и рассматривает все её стороны – и читатели обычно могут следовать за ходом мысли. Однако, модели искусственного интеллекта иногда испытывают трудности с такой структурой. Чтобы помочь моделям лучше понимать текст, разбейте средний раздел на серию коротких, самодостаточных блоков информации.

Блок ответа содержит:
Чёткое утверждение. Ограничение. Поддерживающую деталь. Прямое следствие.

Как SEO-эксперт, я часто говорю клиентам, что если фрагмент контента не может существовать сам по себе – то есть его нельзя чётко понять даже при представлении изолированно – он не будет хорошо работать под «сжатием» алгоритмов поисковых систем. Подумайте о выделенных сниппетах или голосовом поиске – им нужна лаконичная, самодостаточная информация. Чтобы ваш контент был действительно устойчивым, сосредоточьтесь на создании сильного основного сообщения, которое трудно исказить или плохо резюмировать. Именно так вы обеспечите его высокую позицию в рейтинге и точное отражение вашего бренда.

2. Переключите тему на полпути.

Дрейф часто происходит из-за того, что модель перестаёт видеть последовательные якоря.

Примерно на полпути написанного, кратко суммируйте свою основную мысль, важные элементы, которые вы обсуждаете, и то, как вы принимаете решение. Несколько предложений – обычно от двух до четырех – будет вполне достаточно. Это помогает сохранить ясность и гарантирует, что всё останется в рамках темы.

Он также улучшает способ сжатия файлов. Чётко указывая важную информацию, вы по сути говорите программе сжатия, что сохранять, а что можно отбросить.

3. Храните доказательства локально для претензии.

Обе модели и компрессоры работают эффективнее, когда информация, подтверждающая утверждение, размещается поблизости.

Когда утверждение появляется в одной части документа, а подтверждающие его доказательства находятся гораздо позже, модели ИИ иногда сокращают текст между ними. Это может разорвать связь между утверждением и доказательством, и модель затем попытается заполнить недостающее звено собственной интерпретацией.

При предоставлении локальных доказательств начните с вашего утверждения, за которым немедленно следует соответствующий номер, дата, определение или источник. Если вам нужно объяснить подробнее, сделайте это *после* того, как вы чётко свяжете это с вашим первоначальным утверждением.

Чёткое написание и объединение связанной информации также облегчает другим возможность ссылаться на вашу работу. Трудно точно процитировать утверждение, когда читателям приходится собирать смысл из разных частей вашего текста.

4. Используйте последовательное именование для основных объектов

Это может показаться незначительным, но это важно. Хотя люди не заметят, если вы слегка измените чьё-то имя несколько раз ради последовательности, это может запутать AI-модели и привести к ошибкам.

Выбери основной термин для представления ключевой концепции и придерживайся его. Хотя допустимо использовать разные слова для обозначения людей, последовательно используй этот основной термин для всего остального. Когда программное обеспечение извлекает информацию или упрощает её, последовательные термины служат чёткими идентификаторами. Непоследовательные термины создают путаницу.

5. Рассматривайте «Структурированные Выводы» как подсказку о том, как машины предпочитают потреблять информацию.

Растущая тенденция в инструментах для больших языковых моделей заключается в создании структурированных выходных данных и ограничении возможных ответов. Речь идет не о принуждении статей к формату JSON, а скорее об упрощении автоматического извлечения информации компьютерами. Это подчеркивает ключевой момент: машины лучше всего работают, когда факты представлены последовательным и предсказуемым образом.

Чтобы сделать вашу статью более понятной, попробуйте включить в основной текст некоторые знакомые элементы. Хорошие варианты включают определения ключевых терминов, нумерованные шаги для процессов, списки требований с использованием маркеров, сравнения с использованием чётких характеристик и конкретное упоминание людей или вещей, связанных с вашими аргументами.

Если вы это сделаете, ваш контент будет проще извлекать, сжимать без проблем и использовать повторно точно.

Как это проявляется в реальной SEO-работе

Мы достигли поворотного момента. Если вы занимаетесь SEO или руководите контентом, вы больше не оптимизируете для одной AI-модели. Вместо этого сосредоточьтесь на оптимизации всей системы – того, как информация находится, обобщается и представляется.

Ваши видимые симптомы будут выглядеть следующим образом:

  • Ваша статья правильно перефразируется в начале, но основная концепция представлена неверно. Это эффект «потерянного в середине» плюс сжатие.
  • Ваш бренд упоминается, но ваши подтверждающие доказательства не переносятся в ответ. Это означает, что локальное подтверждение не работает. Модель не может обосновать цитирование вас, поэтому использует вас как фоновый цвет.
  • Твои нюансированные средние части становятся общими. Это сжатие, превращающее твои нюансы в пресную сводку, а затем модель рассматривает эту сводку как «истинную» середину.
  • Ваш ход «сокращения середины» — это способ снизить эти показатели отказов. Не за счет снижения ценности, а за счет ужесточения информационной геометрии.

Простой способ редактировать для средней выживаемости

Вот простой пятиступенчатый процесс, который вы можете использовать для любого объемного письменного проекта, и его выполнение не должно занять больше часа.

  1. Определите середину и прочитайте только среднюю треть. Если среднюю треть нельзя суммировать в двух предложениях, не теряя смысла, то это слишком мягко.
  2. Добавьте один перефразированный абзац в начале средней трети. Повторите: основное утверждение, границы и «и что с этого следует». Будьте кратки.
  3. Преобразуйте среднюю треть в четыре-восемь блоков ответов. Каждый блок должен быть цитируемым. Каждый блок должен включать свое собственное ограничение и как минимум одну подтверждающую деталь.
  4. Стабилизируйте метки. Выберите название для ваших ключевых сущностей и придерживайтесь его в середине.

По сути, этот подход работает, поскольку учитывает две ключевые проблемы: склонность моделей с длинным контекстом испытывать трудности с информацией в середине и тот факт, что в реальных приложениях часто сокращают или упрощают контекст для поддержания надёжности.

Подведение итогов

Просто наличие более широкого контекстного окна не является решением. Это может фактически создавать новые проблемы, поскольку более длинные входные данные часто приводят к большей компрессии данных, что, в свою очередь, может привести к потере важной информации в тексте.

Послушайте, я разрабатываю веб-сайты уже давно, и вот что я узнал о контенте: безусловно, продолжайте писать глубокие, длинные статьи, когда тема этого требует. Но, пожалуйста, не позволяйте основной части вашего контента разбредаться во все стороны. Думайте о средней части как о самой важной – о фундаменте. Именно там должна быть самая сильная и важная информация, а не просто пустая болтовня или красивые детали. Она должна *поддерживать* все остальное.

Это ключ к созданию контента, который одновременно увлекателен для людей и полезен для компьютеров, сохраняя при этом естественный стиль письма.

Смотрите также

2026-02-19 17:41

35-летний ветеран SEO: Отличное SEO — это хорошее GEO — но не все занимались отличным SEO.

Как SEO-специалисты, мы уже привыкли к обновлениям алгоритмов, поэтому оптимизация для больших языковых моделей кажется естественным следующим шагом.

Я поговорил с опытным SEO-специалистом Грантом Симмонсом, чтобы узнать его мнение об текущей дискуссии о SEO и GEO – и о том, означают ли эти два термина на самом деле одно и то же.

Грант привносит более 30 лет опыта, помогая брендам добиться успеха. Он был пионером в сосредоточении на основном значении, цели и опыте бренда, еще до недавних достижений в области ИИ и больших языковых моделей.

Я обсудил согласование сигналов с Грантом, понимание работы цитирований LLM на основе недавних патентов Google и распространенные ошибки, которые допускают SEO-специалисты при таргетинге на ключевые слова.

Грант Симмонс отмечает, что даже когда мы создаем контент для ИИ, мы в конечном итоге пишем, чтобы удовлетворить человеческие потребности. Это связано с тем, что ИИ полагается на подсказки и вопросы *от* людей для генерации ответов.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Вы можете посмотреть полное интервью с Грантом на IMHO ниже, или продолжить чтение резюме статьи.

Отличное SEO – это хорошее GEO.

На Google Search Live в декабре 2025 года Джон Мюллер сказал: «Хорошее SEO – это хорошее GEO.»

Я спросил Гранта о различиях между оптимизацией для поисковых систем и для машин, и о том, видит ли он какие-либо общие черты между ними.

Я видел много обсуждений последних замечаний Гранта, и они действительно совпадают с тем, что говорит Джон Мюллер из Google. По сути, многие SEO-усилия просто не достигают цели в наши дни. Что *действительно* важно – и всегда было – это утверждение себя в качестве настоящего авторитета в конкретной теме. Речь не о трюках или ярлыках; речь идет о глубоком понимании и создании контента вокруг того, что волнует вашу аудиторию.

Он объяснил, что машины, такие как Google или большие языковые модели, должны понимать истинный смысл информации, чтобы предоставлять наиболее полезные ответы.

По сути, этим системам нужно сначала понять, что спрашивают, а затем предоставить наиболее релевантный ответ. Это работает довольно схожим образом.

Грант отмечает ключевое различие в том, как поисковые системы оценивают контент. Традиционно, Google фокусировался на ранжировании целых страниц, даже при просмотре конкретных разделов. Большие языковые модели, однако, работают принципиально по-другому.

Большие языковые модели теперь склонны сосредотачиваться на поиске конкретной, легко идентифицируемой информации в тексте – деталей, которые напрямую относятся к вопросу или запросу. Это ключевое отличие в том, как они работают.

Грант подчеркнул, что действительно эффективное SEO всегда включало в себя широкий подход, охватывающий социальные сети, связи с общественностью, создание контента и то, как бренд общается. Создание сильной узнаваемости бренда, обеспечение его видимости везде и поддержание последовательного имиджа бренда на всех платформах теперь имеют решающее значение для того, как бренды появляются в результатах поиска, работающих на базе AI. Именно в этом заключается экспертиза лучших SEO-специалистов.

Как маркетологам, нам необходимо применять те же принципы к собственному маркетингу, что и к маркетингу наших клиентов. Это означает понимание их потребностей и предоставление им правильных решений – и нам нужно делать это и для себя. Мы должны выяснить, что ищут наши потенциальные клиенты, и убедиться, что наш маркетинг отвечает этим потребностям.

Как эксперт по поиску, я часто получаю вопросы о разнице между ‘GEO’ и ‘SEO’. Честно говоря, когда вы действительно преуспеваете в ‘SEO’, вы *фактически* эффективно занимаетесь ‘GEO’ – они становятся одним и тем же. Если ваш ‘SEO’ недостаточно силён, то усилия в ‘GEO’, вероятно, не принесут результата. Но не всегда всё чёрно-белое – определённо есть нюансы, которые стоит учитывать.

Как SEO-специалист с опытом, я заметил кое-что интересное. Те из нас, кто давно в индустрии, не так сильно реагируют на постоянные изменения. Мы уже пережили огромные сдвиги – помните, когда нам приходилось оптимизировать для нескольких поисковых систем до того, как Google стал доминировать? Этот опыт научил нас быть адаптивными. Новичкам в SEO, конечно, сложнее, потому что у них нет такого исторического контекста, на который можно опираться. Они начинают в точке, где всё *кажется* более стабильным, но изменения – это всё ещё единственная константа!

Почему консенсус важен для выявления большими языковыми моделями (LLMs).

Затем я спросил Гранта о недавних патентах Google на продолжение разговоров, которые описывают две отдельные системы, предназначенные для работы в тандеме.

Грант называет первый компонент двигателем уверенности. Он проверяет, может ли информация в тексте быть подтверждена и широко ли она признается в интернете.

Грант объяснил, что тот факт, что несколько человек сообщают одну и ту же информацию, не обязательно делает её фактической, но это указывает на общее согласие. Он считает, что в конечном итоге преобладающее мнение обычно принимается за истину.

Зависит ли что-либо от того, отображается ли это как ссылка изначально, зависит от общего соглашения. Затем движок линковки определяет, возможно ли фактически создать цитату из этого, то есть можно ли его связать в первую очередь, согласно Гранту.

Золотой Контент Знаний Побеждает

Что заставляет контент выделяться для ИИ? По словам Гранта, это «золотые знания» – информация, предлагающая действительно уникальную точку зрения.

Как SEO-эксперт, я всегда говорю своим клиентам, что контент должен быть как оригинальным *и* подкреплен надежными данными – ваши собственные данные – лучшие! Речь идет о формировании собственного обоснованного мнения, а не просто о повторении того, что говорят все остальные. Однако, быть отличным от других недостаточно. Важно помнить, что контент также должен находить отклик у того, что люди *уже* ищут и с чем согласны. Думайте об этом как о предложении уникальной точки зрения, которая все же вписывается в более широкий онлайн-диалог. Уникальность и данные – это ключ, но соответствие существующему веб-консенсусу – это то, что действительно помогает контенту работать.

Грант подчеркнул, что, хотя мы часто обсуждаем написание для компьютеров, наш фокус всегда должен быть на людях. Он объяснил, что в конечном счете мы отвечаем на человеческие запросы и потребности, поскольку все начинается с вопроса или подсказки.

Главный вывод заключается в том, чтобы найти правильный баланс между оригинальностью и согласием с тем, что говорят другие. Контент, который просто повторяет существующие идеи, не будет замечен, а контент, который делает утверждения без подтверждающих доказательств, не вызовет доверия. Лучший подход — делиться новыми идеями, подкрепленными данными, которые другие могут подтвердить.

Самые большие ошибки, которые допускают SEO-специалисты при фокусировке на теме

Грант сказал, что самая большая ошибка, которую он видит в разнообразии тем страниц, — это попытка понравиться абсолютно всем.

По словам Гранта, сосредоточение внимания на том, *что* пользователи намереваются найти, делает очевидной важность каждой страницы на веб-сайте. Он описывает это как создание ‘пути к удовлетворению’ – истинное понимание вашей аудитории и ее потребностей, а затем обеспечение простоты поиска того, что они ищут.

Грант отметил, что большинство SEO-специалистов начинают с существующих веб-сайтов, а не с совершенно новых. Легко увлечься быстрыми исправлениями, такими как обновление title tags, meta descriptions и headings, но он подчеркивает важность в первую очередь проверки того, действительно ли страница отвечает конкретной потребности пользователя и не отклонилась от своей первоначальной цели – то, что он называет ‘drift’.

По словам Гранта, многие SEO-специалисты упускают из виду критически важный шаг: истинное понимание основной цели веб-страницы. Он говорит, что веб-сайты часто непреднамеренно охватывают широкий спектр несвязанных тем, что ослабляет их общую направленность. Удаление этих посторонних областей помогает прояснить, о чём на самом деле эта страница, и это то, что SEO-специалисты часто упускают из виду.

Это напрямую связано с тем, насколько легко контент может быть процитирован ИИ. Если у веб-страницы нет чёткой основной темы, ИИ сложно найти конкретный, самодостаточный ответ на вопрос пользователя. Наличие сфокусированной темы полезно не только для поисковой оптимизации – это необходимо для появления в результатах поиска на основе ИИ.

Рекомендация по стратегии от Гранта на 2026 год

Я закончил тем, что спросил Гранта, что он сейчас рекомендует своим клиентам.

Грант предложил сосредоточиться на том, что уже успешно. Он объяснил, что, хотя подготовка к будущему росту с использованием AI важна, это не повлияет на текущие результаты, поскольку трафик, связанный с AI, все еще низок. Вместо этого команде следует приоритизировать улучшение их поисковой оптимизации (SEO) и обеспечение высоких позиций в результатах поиска. По мере этого они также будут внедрять функции для улучшения видимости на других платформах и поисковых поверхностях.

Он уделяет приоритетное внимание созданию отличного, оригинального контента, который устанавливает его экспертность, подкреплённую данными и поддерживаемую достоверными источниками и цифровым продвижением. Как он говорит, цель состоит в том, чтобы сделать контент настолько захватывающим, чтобы его было невозможно игнорировать ИИ, Google или отраслевым публикациям.

Ключ к успешному SEO, как я практиковал последние 15 лет, прост: создавайте контент настолько исключительный, чтобы он требовал внимания – философия, вдохновленная советом Стива Мартина: «Будьте настолько хороши, чтобы их не могли игнорировать.»

Посмотрите полное интервью с Грантом Симмонсом здесь:

https://www.youtube.com/watch?v=dGxZsuHeAuA

Смотрите также

2026-02-19 17:11

Почему бюджеты перерасходуются, даже если есть целевой ROAS или CPA? – Спросите эксперта по PPC.

Как вебмастер, ведущий PPC-кампании на протяжении многих лет, я часто получаю вопрос о том, почему бюджеты все еще могут превышать ожидаемые, даже когда вы установили целевой ROAS или целевой CPA. Это действительно распространенная проблема, и в этом месяце я рассматриваю этот вопрос в своей серии ‘Ask a PPC’.

Важно понимать разницу между бюджетами и целями при использовании рекламных платформ, основанных на аукционах. Хотя они работают вместе, у них разные цели. В этой статье мы объясним, как работают бюджеты и цели, почему стремление к конкретной рентабельности инвестиций в рекламу (ROAS) иногда может привести к увеличению расходов, и какие инструменты есть у рекламодателей для эффективного управления своими бюджетами.

Разница Между Бюджетами и Целями

Как человек, который управлял большим количеством онлайн-рекламных кампаний, я узнал, что ‘daily budgets’ (ежедневные бюджеты) не всегда *строго* ежедневны. Рекламные платформы обычно работают на основе месячного среднего – около 30-31 дня. Поэтому вы можете заметить, что расходы увеличиваются или уменьшаются в любой конкретный день, но платформа стремится достичь вашего общего месячного бюджета в целом. Не паникуйте, если видите более высокие расходы в один день; речь идет о среднем показателе за весь период, а не о достижении точной цифры *каждый* день.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Даже при ежедневном бюджете в 50 долларов, вы можете увидеть расходы до 100 долларов в некоторые дни. Вот почему это происходит:

  • Превышение количества дней, разрешённых в течение 30.4-дневного периода.
  • Средняя CPC не соответствует ежедневному бюджету.

Как SEO-эксперт, я часто объясняю, что цели вроде Target ROAS или Target CPA — это не жёсткие ограничения расходов. Рассматривайте их как указания, которые вы даете алгоритму – сообщающие ему *как* тратить, а не *сколько*. Это сигнал оптимизации, направляющий систему на достижение желаемой рентабельности или стоимости за действие, а не просто останавливающийся, когда определенная сумма потрачена.

Целевой ROAS инструктирует рекламную платформу стремиться к конкретной рентабельности инвестиций в рекламу, основываясь на ценности каждой конверсии. Целевой CPA, с другой стороны, фокусируется на получении конверсий по установленной цене, не учитывая, сколько стоит каждая конверсия.

Поскольку цели сообщают платформе, к чему мы стремимся, а не устанавливают жесткие ограничения, это может увеличить расходы, если она считает, что это поможет нам достичь этих целей.

Почему целевой ROAS может увеличить расходы

В то время как Целевой ROAS часто рассматривается как осторожный способ управления ставками, он на самом деле может привести к увеличению расходов в некоторых ситуациях.

Часто возникающая проблема возникает, когда цена за клик (CPC) высока по сравнению с вашим ежедневным бюджетом. Если средний CPC превышает примерно 10% вашего ежедневного бюджета, рекламная платформа может быть вынуждена распределять ваши расходы, чтобы получить достаточно релевантных кликов и достичь желаемой рентабельности рекламных инвестиций (ROAS).

Как цифровой маркетолог, я заметил интересную вещь о том, как работают бюджеты на некоторых платформах. Если мы не потратили достаточно средств в начале месяца, система может внезапно увеличить расходы позже, чтобы компенсировать это. Это может показаться скачком, но на самом деле платформа работает над достижением нашего среднего дневного бюджета и захватом потенциальных конверсий, которые мы могли упустить. Всё дело в темпе, и это разработано для максимизации результатов в течение всего месяца.

Получение правильных цифр здесь имеет важное значение. Если платформа получает неточные или преувеличенные данные, она может ошибочно полагать, что дела идут хорошо, когда это не так. Это может привести к ненужному увеличению расходов, поскольку люди гонятся за результатами, которые на самом деле не происходят.

Также важно понимать, как вы категоризируете конверсии. Конверсии, отмеченные как ‘primary’, напрямую влияют на то, как платформа корректирует ваши ставки и сообщает о результатах. ‘Secondary’ конверсии отслеживаются, но не влияют на эти автоматические корректировки. Если вы назначите слишком много конверсий как primary, особенно если они измеряют схожие вещи, платформа может ошибочно посчитать один и тот же успех дважды и потратить больше денег на конкретные ключевые слова, аудитории или сигналы, чем следует.


Как рекламодатели могут защититься от перерасхода средств

Рекламодатели действительно имеют значительные средства управления для контроля поведения расходов.

Один из ключевых моментов – убедиться, что ваш бюджет соответствует фактической стоимости аукционов. Хорошим правилом является установка дневного бюджета таким образом, чтобы он обеспечивал как минимум 10 кликов по типичной цене за клик. Для поисковых запросов, не связанных с вашим брендом, 10% коэффициент конверсии – это очень хорошо. Если вы не получаете достаточно кликов, рекламная платформа может либо сосредоточиться на дорогих возможностях, либо потратить ваш бюджет на трафик более низкого качества, чтобы оставаться в рамках целей по расходам.

Важно реалистично оценивать уровень доверия к отслеживанию конверсий. Многие рекламодатели неточно отслеживают конверсии – их системы неполны или непоследовательны. Это затрудняет доверие к представленным данным, и установка очень строгих целей по рентабельности рекламных инвестиций (ROAS) или стоимости привлечения клиента (CPA) на самом деле может навредить результатам, когда данные ненадежны.

Когда данных мало или они ненадежны, рекламодатели могут скорректировать свои цели, чтобы сделать их более реалистичными, или выбрать стратегию назначения ставок, которая лучше работает с имеющейся у них информацией. Например, если значения конверсий сильно колеблются, сосредоточение на цене за приобретение (CPA) может быть хорошим подходом. Однако, если некоторые конверсии намного ценнее других, простое стремление к минимальной возможной цене CPA может привести к потере денег, поскольку не будет приоритезироваться те конверсии с более высокой стоимостью.

Один часто упускаемый из виду способ улучшить эффективность рекламы — это планирование времени показа ваших объявлений. Ограничение кампаний определенными часами дня может сделать результаты более предсказуемыми и помочь вам максимально эффективно использовать свой бюджет. Если вы пытаетесь сэкономить деньги, рассмотрите возможность запуска рекламы всего несколько часов — от трех до шести — вместо того, чтобы показывать её весь день. Это дает вам больше контроля, не отключая полностью автоматические функции.

Заключительные мысли

Перерасход средств в ставках, ориентированных на цели, обычно не вызван проблемой с самой рекламной платформой. Обычно это происходит из-за того, что бюджет не соответствует желаемым целям, или данные, используемые для управления ставками, недостаточно хороши.

Внимательное отслеживание точности конверсии ваших объявлений, установка реалистичного бюджета и разумное использование таких функций, как планирование показов рекламы, могут помочь предотвратить непредвиденные расходы. Автоматическое назначение ставок работает лучше всего, когда вы тщательно планируете свои настройки и сосредотачиваетесь на том, что действительно важно для вашего бизнеса.

Смотрите также

2026-02-19 16:10

ChatGPT Search Часто Переключается на Английский в Запросах Расширения: Отчёт

Peec AI проанализировал данные со своей платформы, включая более 10 миллионов запросов и 20 миллионов связанных поисков. Они обнаружили, что даже когда люди не начинали с английского языка, 43% времени эти поиски в конечном итоге выполнялись на английском языке.

Что такое Fan-Out запросы?

Поиск ChatGPT от OpenAI использует технику под названием ‘fan-out’, когда вы задаете ему вопрос. Он часто перефразирует ваш исходный вопрос в несколько более конкретных запросов и отправляет их в разные поисковые системы. Если первые результаты не совсем верны, поиск ChatGPT может отправить еще более конкретные запросы другим поставщикам поиска, чтобы уточнить поиск.

Peec AI называет эти расширенные поисковые запросы «fan-outs». Их исследование отслеживало языки, которые ChatGPT использовал при их создании.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Документация OpenAI не описывает, как выбирается язык для переписанных запросов.

Что нашел Peec AI

Peec AI уточнил свои данные, используя только примеры, где местоположение пользователя соответствовало языку, который он использовал в своем запросе. Например, запросы на польском языке поступали от пользователей из Польши, немецкие запросы — из Германии, а испанские запросы — из Испании. Любые запросы, которые не соответствовали этому критерию — например, немецкий запрос из Великобритании — были удалены.

Анализ данных показал, что почти в 78% случаев, когда запросы не были на английском языке, проводился как минимум один последующий поиск с использованием английских ключевых слов.

Запросы, написанные на турецком языке, наиболее часто включали английские переводы – примерно в 94% случаев. Испанские запросы имели самый низкий процент английских переводов – 66%. Однако, даже неанглоязычные запросы с наименьшим количеством английских переводов имели процент выше 60%.

Исследование Peec AI выявило общую тенденцию в разных языках. Когда ChatGPT генерирует ответы, он обычно начинает с поиска информации на языке исходного запроса, а затем включает поиск на английском языке по мере разработки ответа.

Примеры из отчёта

В блоге Peec AI было включено несколько примеров, демонстрирующих, как эта схема может разыграться на практике.

ChatGPT, как правило, преуменьшал или игнорировал Allegro.pl, ведущий польский онлайн-аукцион, когда его спрашивали о лучших платформах в Польше, вместо этого выделяя eBay и другие международные варианты. Peec AI, однако, признает Allegro как самую популярную платформу электронной коммерции в Польше.

Когда у Peec AI спросили о немецких компаниях-разработчиках программного обеспечения на немецком языке, он не назвал ни одной. Аналогично, когда его спросили о косметических брендах на испанском языке, он не упомянул ни одного испанского бренда.

При тестировании с использованием испанской косметики, Peec AI показал, как ChatGPT обрабатывает множественные поиски. Сначала он выполнил поиск на английском языке, затем на испанском, но добавил слово ‘globales’ (означающее ‘глобальные’) к испанскому поиску – термин, которого не было в исходном запросе. Это говорит о том, что ChatGPT предположил, что запрос на испанском языке, поступающий из Испании, означает, что пользователь ищет международные бренды.

Эти примеры взяты из тестов, проведенных с Peec AI, и могут не отражать поведение ChatGPT Search в целом.

Почему это важно

Методологические заметки

Peec AI — это компания, предоставляющая аналитику для AI-поиска. Они собирают данные, используя автоматизированные браузеры для выполнения запросов, создаваемых их клиентами, взаимодействуя с AI-платформами так же, как обычный пользователь на веб-сайте, — вместо использования прямого API-доступа. Данные, проанализированные в этом отчете, поступают из 10 миллионов запросов, выполненных через систему Peec AI, и не основаны на отзывах группы пользователей ChatGPT.

В отчете не было объяснено, из чего состояли запросы, на какие темы или предприятия они были сосредоточены, или насколько точно они отражают то, как люди обычно используют ChatGPT.

Томек Рудзки, автор отчёта, представлен в качестве эксперта по географии в блоге Peec AI. Он уважаемый специалист по SEO, известный выступлениями на отраслевых мероприятиях, таких как BrightonSEO и SMX Munich, а также своими публикациями в изданиях, таких как Moz.

Заглядывая в будущее

Документация OpenAI для ChatGPT Search объясняет, как перефразируются поисковые запросы и как генерируются последующие вопросы, но она не детализирует, как выбирается язык, используемый для этих запросов. В настоящее время неизвестно, является ли способ расширения ChatGPT поисковых запросов из английского – закономерность, обнаруженная Peec AI – преднамеренной функцией или чем-то, что просто развилось само по себе.

Смотрите также

2026-02-19 01:39

Почему Google использует режим ИИ на Flash, объяснение от главного научного сотрудника Google.

Как SEO-эксперт, я нашел комментарии Джеффа Дина, главного научного сотрудника Google, действительно интересными. Он объяснил, что способность Google эффективно запускать Search AI в масштабе сводится к Flash – его скорость и доступность являются ключевыми. Что меня действительно поразило, так это его замечание о том, что *как* мы получаем информацию – это преднамеренный дизайнерский выбор, а не техническое препятствие. Дело не в том, что мы *не можем* делать что-то по-другому, а в том, что Google намеренно построил все именно так, чтобы поддерживать огромный масштаб.

Дин обсудил на подкасте Latent Space, как Flash в конечном итоге был использован для основных операций Search. Он также объяснил, почему система, которая фильтрует весь веб до небольшого количества релевантных документов, как ожидается, останется в использовании в обозримом будущем.

В декабре Google начала использовать Gemini 3 Flash в качестве стандартной AI-модели. В интервью с Дином подробно описаны причины этого изменения.

Почему Flash — производственный уровень

Дин объяснил, что самая большая проблема при использовании ИИ в Поиске — это скорость его ответа. По мере того, как ИИ-модели справляются с более сложными задачами, именно скорость является сдерживающим фактором.

Крайне важно иметь системы, которые быстро реагируют, и использование флэш-памяти — один из способов этого добиться.

Ведущие подкастов отметили, насколько широко используется Flash на платформах, таких как Gmail и YouTube. Дин объяснил, что поиск также становится ключевой областью применения Flash, с расширением его интеграции в такие функции, как AI Mode и AI Overviews.

Flash способен справляться с большими задачами благодаря процессу, называемому дистилляцией. С каждой новой версией Flash опирается на производительность предыдущей, становясь более мощным без увеличения операционных расходов.

На протяжении нескольких версий Gemini нам удавалось создавать быструю, первоначальную версию новейшей модели, которая работает так же хорошо или даже лучше, чем более отполированная, профессиональная версия предыдущей модели.

Этот процесс позволяет ИИ-системам Google постоянно совершенствоваться. Сначала они создают передовые ИИ-модели, чтобы исследовать возможности, а затем совершенствуют эти достижения, превращая их во Flash — систему, предназначенную для обработки огромных потребностей Google Search.

Извлечение вместо запоминания

По словам Дина, дизайн, лежащий в основе Flash и подобных моделей, отдает приоритет доступу к информации из внешних источников, а не ее внутреннему хранению. Идея заключается в том, что модели должны сосредотачиваться на эффективной обработке данных, а не на запоминании фактов, которые они могут легко найти в другом месте.

Неэффективно использовать ограниченные возможности модели для запоминания несущественных деталей, которые можно легко найти в другом месте.

Почему поэтапное извлечение, вероятно, сохранится

Поисковые системы с искусственным интеллектом не могут одновременно обрабатывать весь интернет. Ключевое ограничение заключается в том, что технология, используемая для фокусировки на релевантной информации, становится невероятно требовательной по мере роста объема текста, который ей необходимо анализировать. По словам Дина, обработка около миллиона фрагментов текста уже является значительной задачей. Расширение до миллиардов или даже триллионов фрагментов текста невозможно с использованием текущих подходов.

Дин предвидит будущие модели ИИ, которые, кажется, обрабатывают огромные объемы информации — триллионы элементов, на самом деле. Достижение этого потребует инновационных подходов, выходящих за рамки простого увеличения текущих технологий. Пока что поиск в ИИ, вероятно, будет продолжаться путем первоначального поиска нескольких релевантных документов из гораздо большего набора, а *then* создания ответа.

Почему это важно

Искусственный интеллект, который анализирует ваш контент, постоянно совершенствуется, но он приоритизирует быструю обработку информации над глубоким её пониманием. Он создан для поиска и использования вашего контента при необходимости, а не для его постоянного хранения. Чтобы появиться в результатах поиска на основе искусственного интеллекта, наиболее эффективной стратегией является сосредоточение на том, как Google в настоящее время находит и ранжирует веб-сайты.

С тех пор, как Google представила свои AI-функции с Gemini 2.0, мы отслеживали все обновления базовых AI-моделей. Изначально был выпущен Gemini 3 с AI Mode, а затем Gemini 3 Flash стал стандартной моделью спустя месяц. Теперь Gemini 3 является стандартной моделью, обеспечивающей работу AI Overviews по всему миру.

Google последовательно разрабатывает новые модели в два этапа: сначала создавая мощную, передовую версию, а затем дорабатывая её, превращая в более быструю и эффективную версию для повседневного использования. По словам Дина, этот двухэтапный процесс является долгосрочным планом Google по поддержанию своих поисковых возможностей, а не просто краткосрочным решением.

Взгляд в будущее

По словам Дина, поэтапный поиск, вероятно, останется популярным до тех пор, пока механизмы внимания не смогут преодолеть свои текущие ограничения в вычислительной мощности. Разработка Google Flash указывает на то, что они планируют использовать этот подход во многих будущих моделях.

Ключевым направлением развития, за которым стоит следить, является автоматический выбор модели. Robby Stein из Google обсуждал идею интеллектуальной перенаправки сложных вопросов на более мощную модель ‘Pro’, при этом продолжая использовать более быструю модель ‘Flash’ для большинства запросов.

Смотрите также

2026-02-19 00:40