Исследования Anthropic показывают, как LLM воспринимают текст.

Недавнее исследование, проведённое Anthropic, изучило, насколько хорошо Claude 3.5 Haiku обрабатывает переносы строк при написании текста заданной ширины – задача, требующая отслеживания своего прогресса. Удивительно, но исследователи обнаружили, что модель развивает внутренние паттерны, похожие на то, как люди понимают и ориентируются в пространстве, что указывает на форму пространственного восприятия.

Андреас Волпини поделился полезной идеей в Twitter об этом исследовании, сравнивая его с разбивкой информации на более мелкие части для ИИ. В более общем смысле, его мысль иллюстрирует, как и писатели, и системы ИИ справляются с организацией – обоим необходимо создавать четкие связи между различными частями текста, чтобы сделать его понятным.

Эта статья не посвящена чтению текста; вместо этого в ней исследуется, как создавать текст и решать, где начинать новые строки, чтобы он соответствовал определенной ширине. Мы сделали это, чтобы лучше понять, как большие языковые модели управляют такими вещами, как положение текста, выбор слов и переносы строк во время написания.

Исследователи разработали тест, в котором модель ИИ, Claude 3.5 Haiku, должна была писать текст, соответствующий определенной длине строки. Это помогло им понять, как модель выбирает слова, чтобы оставаться в пределах этих ограничений, и решает, где начать новую строку. По сути, модели нужно было отслеживать, сколько места осталось на каждой строке по мере написания.

Этот эксперимент показывает, что языковые модели могут изучать базовую структуру текста, просто распознавая закономерности, без необходимости специального программирования или руководства.

The Linebreaking Challenge

Эта задача ставит перед моделью задачу определить, поместится ли следующее слово на текущей строке или потребуется новая строка. Для успешного выполнения этой задачи модели необходимо понимать концепцию ширины строки – ограниченного пространства, доступного на каждой строке, аналогичного физической странице. Это требует от модели отслеживания количества написанных символов, расчета оставшегося пространства и затем принятия решения, поместится ли следующее слово. Это сложная задача, требующая рассуждений, памяти и планирования. Исследователи использовали специальные диаграммы, называемые графами атрибуции, чтобы понять, как модель обрабатывает эти вычисления, обнаружив, что она использует отдельные внутренние механизмы для отслеживания количества символов, предстоящего слова и того, когда необходим перенос строки.

Непрерывный подсчёт

Исследователи обнаружили, что Claude 3.5 Haiku не считает символы по одному. Вместо этого, он воспринимает их как непрерывную, изогнутую форму, позволяя плавно следовать за положением текста при чтении, а не обрабатывая каждый символ по отдельности.

Интересно, что исследователи обнаружили, что ИИ-модель разработала конкретный компонент, называемый ‘attention head’ (головка внимания), предназначенный для определения конца каждой строки. Attention heads — это части ИИ, которые фокусируются на самом важном в тексте. Эта конкретная головка была специализирована на простом обнаружении, где заканчивается строка.

Ключевым аспектом того, как мы отслеживаем количество символов, является то, что конкретный элемент, ‘граничная голова’, тонко сдвигает данные. Это позволяет связать каждое количество с немного более высоким, предполагая, что они находятся рядом друг с другом. По сути, существует способ сдвинуть кривую количества символов вдоль самой себя. Такой вид движения невозможен в типичных, сильно изогнутых представлениях линий или окружностей, как в нашей первоначальной модели. Однако мы наблюдаем это как в структуре, которую мы обнаружили в данных Haiku, так и, как мы продемонстрируем, в построении Фурье, которое мы используем.

Как работает Boundary Sensing

Исследователи обнаружили, что Claude 3.5 Haiku может предсказывать, когда приближается к концу фрагмента текста, анализируя два внутренних индикатора.

  1. Сколько персонажей он уже сгенерировал, и
  2. Как долго предположительно должна быть очередь.

Механизм внимания определяет наиболее важные части текста. Определенные части этого механизма специально разработаны для прогнозирования, когда строка приближается к своей максимальной длине. Они работают, тонко регулируя способ отслеживания моделью количества символов и ширины строки. Когда эти два значения приближаются, модель приоритизирует добавление переноса строки.

Модель определяет, когда она приближается к концу строки, проверяя количество обработанных символов и общую ширину строки. Она делает это, используя определенные части своей внутренней обработки – называемые attention heads – которые предназначены для распознавания закономерностей в этих подсчетах. Эти части по сути ‘выравнивают’ текущий подсчет символов с шириной строки, давая сильный сигнал, когда разница между ними находится в определенном диапазоне. Комбинируя информацию из нескольких таких частей, каждая из которых смотрит на немного разные смещения, модель может точно предсказать, сколько символов осталось до конца строки.

Финальная Стадия

К этому моменту модель знает, насколько близко она находится к концу строки и сколько букв будет в следующем слове. Последний шаг — просто применить эти знания.

Последняя часть определения того, где разбивать строки, включает в себя проверку, поместится ли предсказанное следующее слово перед окончанием строки. Если оно не поместится, строку необходимо разбить.

Исследователи обнаружили, что модель имеет внутренние механизмы, которые определяют, когда новое слово сделает строку слишком длинной. Эти механизмы действуют как границы, увеличивая вероятность переноса строки. И наоборот, другие внутренние функции активируются, когда слово *действительно* помещается, что делает перенос строки менее вероятным. По сути, модель предсказывает переносы строк, основываясь на том, насколько близко она находится к достижению лимита строки.

Эти две противоборствующие силы – одна поощряющая перенос строки, а другая предотвращающая его – работают вместе, чтобы определить конечный результат.

Модели могут иметь визуальные иллюзии?

Затем исследование приобрело интересный оборот, когда ученые протестировали, можно ли обмануть модель с помощью визуальных иллюзий, как и людей. Они начали с изучения иллюзий, где линии равной длины кажутся разными из-за обманчивых перспектив, из-за чего одна кажется короче другой.

Скриншот визуальной иллюзии

Чтобы понять, как ИИ-модель отслеживает информацию, исследователи добавили специальные искусственные символы. Эти символы запутались во внутренней системе модели для понимания порядка, создавая ошибки, очень похожие на то, как визуальные иллюзии обманывают наши глаза. Чувство модели относительно того, где начинаются и заканчиваются строки и разделы, стало искажённым, демонстрируя, что она полагается на контекст и полученную информацию для понимания структуры. По сути, даже если эти ИИ-модели не «видят» так, как люди, они могут испытывать внутреннюю путаницу, аналогичную тому, как наш мозг неправильно интерпретирует визуальную информацию.

Наше исследование показывает, что это изменение влияет на следующее предсказанное моделью слово, в частности, мешая её способности предсказывать новые строки. Как мы и ожидали, определенные части модели отвлекаются. При использовании исходного запроса эти части были сосредоточены на переходе с одной строки на другую. Однако, с измененным запросом, они также начинают сосредотачиваться на символах ‘@@’.

Исследователи хотели узнать, оказывают ли конкретные символы, которые они использовали, уникальное воздействие, или любые случайные символы могут вызвать проблемы для модели. Они протестировали 180 различных последовательностей символов и обнаружили, что большинство из них не мешают способности модели предсказывать, где должны быть переносы строк. Они обнаружили, что только ограниченное количество символов – те, которые обычно встречаются в коде – способны запутать модель и нарушить её внутренний процесс подсчёта.

LLMs Имеют визуально-подобное восприятие текста.

Это исследование демонстрирует, как характеристики текста преобразуются в организованные, похожие на карты структуры внутри языковой модели. Важно отметить, что оно предполагает, что эти модели не просто обрабатывают слова как символы — они фактически строят внутренние представления, подобные тому, как мы воспринимаем мир. Самым убедительным я считаю то, что исследователи последовательно проводят связь между тем, что происходит внутри модели, и тем, как люди воспринимают. Их аналогии с человеческим восприятием неоднократно оказываются актуальными для внутреннего устройства модели.

Они пишут:

Мы часто говорим, что первые части языковых моделей преобразуют текст в понятные фрагменты, но точнее будет думать об этом как о *восприятии* входных данных моделью. Подобно тому, как начальные слои моделей зрения обрабатывают базовую визуальную информацию, первые части языковой модели сосредоточены на восприятии и понимании самого текста.

Шаблоны, которые мы наблюдаем в этих алгоритмах, удивительно похожи на то, как мозг обрабатывает информацию. В частности, то, как эти шаблоны расширяются, чтобы обрабатывать всё больше и больше данных, перекликается с тем, как наш мозг представляет числа – расширяясь, чтобы охватить большие количества. Способ организации этих шаблонов также напоминает общие принципы работы мозга. Хотя сравнения не точны, мы считаем, что более тесное сотрудничество между исследователями, изучающими искусственный интеллект и нейронауку, может привести к ценным новым открытиям.

Последствия для SEO?

Артур К. Кларк однажды сказал, что высокоразвитые технологии кажутся магией. Однако я считаю, что как только мы понимаем *как* работает технология, она становится менее загадочной. Не все знания должны быть практическими, но понимание того, как большие языковые модели (LLMs) обрабатывают информацию, ценно, потому что это устраняет ‘магию’ и делает её более доступной. Улучшит ли это исследование ваши навыки SEO? Да, предоставив нам более глубокое понимание того, как языковые модели структурируют и интерпретируют контент, делая его менее ‘чёрным ящиком’ и более понятным.

Прочитайте об исследовании здесь:

Когда Модели Манипулируют Многообразиями: Геометрия Задачи Подсчета

Смотрите также

2025-10-30 13:41

Измерение видимости при исчезновении позиций в поисковой выдаче [Вебинар]

Узнайте, как отслеживать то, что действительно важно в AI-поиске.

Инструменты, такие как ChatGPT, Perplexity и AI Mode от Google, больше не выдают ранжированные результаты; они выдают ответы. Так что происходит, когда традиционные SEO-метрики перестают применяться?

Присоединяйтесь к Глобальному вице-президенту по ИИ и консультационным услугам Botify, AJ Ghergich, и вице-президенту по консультациям по решениям, Frank Vitovitch, для участия в прямом вебинаре, чтобы узнать, как отслеживать видимость вашего веб-сайта в современном поисковом ландшафте.

Save Your Spot

Почему стоит посетить

Эта сессия покажет вам, как использовать более эффективные способы измерения успеха вашего AI-поиска, отказавшись от устаревших методов. Вы узнаете практичную стратегию, основанную на данных, для улучшения того, насколько легко люди находят ваш контент, помогая вашей команде оставаться конкурентоспособной по мере развития событий.

Зарегистрируйтесь сейчас, чтобы узнать, как отслеживать успех в AI-поиске с уверенностью и ясностью.

🛑 Не удалось присутствовать в прямом эфире? Зарегистрируйтесь в любом случае, и мы отправим вам запись для просмотра в удобное время.

Save Your Spot

Смотрите также

2025-10-30 12:08

Solana растет на 9%… Но держатели бегут, как будто это зомби-апокалипсис 😱

Solana (SOL) снова подаёт тревожные сигналы. Она выросла почти на 9% за последнюю неделю, но цена Solana всё ещё снизилась примерно на 6% за месяц — явный признак того, что покупатели теряют импульс. Данные блокчейна показывают, что долгосрочные держатели сокращают свою экспозицию, а крупные инвесторы остаются в стороне. 🧙‍♂️

Вместе эти тенденции указывают на растущий риск краткосрочной коррекции, которая может выйти за пределы 3%, если ключевые уровни поддержки будут пробиты. 🚨

Держатели стимулируют продажи, в то время как крупные деньги остаются осторожными.

Постоянный отток средств от держателей со средним и долгосрочным горизонтом подрывает недавнюю силу Solana. Метрика HODL Waves от Glassnode — которая отслеживает, как долго монеты остаются нетронутыми перед перемещением — показывает четкое снижение среди убежденных держателей. 📉

Кошельки, удерживающие Solana в течение 1-2 лет, сократили свою долю предложения с 20,33% до 18,48%, в то время как доля держателей в течение 3-6 месяцев снизилась с 12,7% до 11,55% в этом месяце. 🧮

Хотите больше информации о токенах, как эта? Подпишитесь на ежедневную криптовалютную рассылку от редактора Харша Нотария здесь. 📰

Это изменение сигнализирует о фиксации прибыли среди терпеливых инвесторов, что является медвежьим развитием событий, которое часто предшествует краткосрочным коррекциям. 🐻

Поток денежных средств Чайкина (CMF) — инструмент, измеряющий приток и отток крупных денежных средств — подтверждает эту точку зрения. После кратковременного подъема выше нуля 27 октября, CMF снова стал отрицательным и с тех пор не восстановился. Это означает, что институциональные покупатели не добавляют агрессивно, даже после недавних падений. 🧊

Во время восстановления или боковых движений эти крупные денежные потоки часто компенсируют волны продаж, основанные на когортах. В настоящее время этого не происходит. Вместо этого, отрицательный CMF усиливает «продающее» давление, укрепляя нарратив об откате цены Solana. 🚧

Если CMF не вернётся выше 0.06, восстановление Solana, вероятно, останется слабым. Эти объединённые сигналы из блокчейна и большие деньги показывают, почему продавцы остаются в контроле, несмотря на отскок на прошлой неделе. 🧙‍♀️

Слабая структура указывает на еще один этап снижения цены Solana.

На дневном графике паттерн Solana подтверждает медвежью настройку. В период с 13 по 30 октября цена SOL сформировала более низкий максимум. Индекс относительной силы (RSI) — который измеряет силу покупок и продаж — сформировал более высокий максимум. 📈

Эта формация — скрытая медвежья дивергенция, и часто появляется перед продолжением тренда вниз. Она показывает, что, несмотря на рост индикатора импульса, фактическая цена не смогла удержаться на том же уровне, что указывает на то, что давление продавцов все еще доминирует. 🐍

Solana уже снизилась на 6% за последние 30 дней (сигнал нисходящего тренда), что указывает на то, что эта скрытая дивергенция может скоро реализоваться. Если цена упадет ниже $192 (примерно на 3% ниже текущего уровня), это может подтвердить начало более глубокой коррекции к $182 и, возможно, $161. 🕳️

Единственный способ опровергнуть этот медвежий взгляд — это дневное закрытие свечи выше 206 долларов. Это может подтолкнуть Solana к 237 долларам. До тех пор структура остается хрупкой и склоняется к дальнейшему снижению. 🪨

Смотрите также

2025-10-30 12:38

Планы запуска цифрового евро ЕЦБ: Замедлены бюрократией и спекуляциями 😏

Вновь, в этом великом зале европейских финансовых дел, Европейском центральном банке, по коридорам разносятся шепоты – приглушенные разговоры о цифровом евро, которое, после преодоления бюрократических препон, должно появиться на рынке в 2029 году. Условие: правовая база, одновременно всеобъемлющая и тщательно разработанная.

Подобно усердным секретарям валюты, чиновники ЕЦБ трудятся в тени рутины, фаза подготовки их цифрового начинания начинается в последние дни 2023 года. Их руки и ручки, всегда беспокойные, продолжают свою работу.

Как это ни удивительно, на этой неделе в Италии собирается собрание, похожее на древний совет, с целью выудить ростки согласия из перьев законодателей, чтобы создать правовую основу, охватывающую ближайшие четыре зимы.

Однако, подобно разделенной земле, законодатели ЕС все еще оказываются в плену вечного спора о целесообразности CBDC. Банки, законодатели и потомки членов государств, не забывая простых людей, все шепотом выражают обеспокоенность — конфиденциальность, коварный злодей; другие риски лишь вплетаются в симфонию скептицизма.

Законы, подобно упрямым лианам, цепляются за залы Европейского парламента с 2023 года, запутавшись в политической нерешительности и многообещающем призраке выборов, которые танцуют в объятиях 2024 года.

В сонный осенний месяц сентябрь Чиполлони из ЕЦБ – возможно, ободренный каплей бренди – провозгласил отступление по календарю до июня 2029 года, его вера тверда в том, что консенсус Европейского парламента совпадёт к маю двадцать шестого года.

Ибо если есть одна истина, которую можно извлечь, то это то, что цифровое евро распространит свои благотворные сети на всю Европу, предлагая оплату без посредников и без границ — оплот против непредвиденной бури, будь то старый гнев войны или современный кибер-призрак.

Те, кто по всему миру, и их CBDC

Как зафиксировано в авторитетных залах Атлантического совета, только триплета CBDC взлетела в существование: Нигерия, Багамы и Ямайка. В ихследствиях, еще сорок девять штатов обратили свои взгляды на то, что может расцвести в пилотной фазе.

Благородные мыслители Human Rights Foundation, продемонстрировав триумф в конце 2023 года, назначили новый контроль над трекером CBDC. Они говорят с оптимизмом об улучшенной эффективности и широкой инклюзивности – сладких утопических обещаниях в стиле медленного отказа от конфиденциальности и заманчивого потенциала для нового управления.

Смотрите также

2025-10-30 08:03

Пробуждаются ли спящие киты Ethereum? 🐋🌊

В сумерках этого неспокойного года, давно молчавшие обитатели Эфирного царства зашевелились, словно пробудившись от десятилетнего послеполуденного сна звоном рыночных максимумов. Эти держатели ‘эпохи ICO’, когда-то такие же безмятежные, как древние свитки в Александрийской библиотеке, теперь пробуждены опьяняющим ароматом ценности — целых 78 миллионов долларов, не меньше — подтолкнутые в движение таинственными и капризными силами.

Сентябрь, месяц глубокой и, возможно, предвещающей события активности, стал свидетелем двух сейсмических толчков в реестре золота: первый 6-го числа, когда возраст, потребляемый метрикой (мера, не похожая на дневник скупого о прохождении богатства сквозь время), взлетел до ошеломляющих 502 миллионов, а второй в конце года, где он взмыл до 603 миллионов. Можно представить, что небеса сами моргнули бы от удивления при виде таких цифр, если бы не тот факт, что высокие 804 миллиона июля все еще нависают, как предсказуемо самодовольный патриарх.

Среди этих современных Пиноккио, превращающих старые монеты в золотые токены, кит-получатель 20 000 ETH (приличная сумма в 2014 году, если учитывать подарки на день рождения в Bitcoin) — недавно совершил маневр, настолько дерзкий, что он мог бы соперничать с парламентским переворотом персидского визиря. Восьмилетняя угрюмая спячка завершилась переводом 1 500 токенов на Kraken, всего лишь чайная ложка из его запасов. Можно задаться вопросом: «А что насчет оставшихся 18 500?» Возможно, они ждут следующего рыночного зенита, или, возможно, они хранятся в качестве резервного фонда для особенно роскошного загородного клуба в стиле blockchain.

Познакомьтесь с двумя другими OG (Original Gods, как их, вероятно, называют) эпохи ICO, чьи действия напоминают пьяный дуэт на аукционе Sotheby’s. Один, визионер с множеством кошельков, который когда-то бродил по Ethereum степи с тремя отдельными накоплениями, в общей сложности составлявшими миллион ETH, недавно переместил 150 000 токенов на адрес для стейкинга. Он потратил 310 000 долларов в 2014 году; к 2025 году его накопления выросли до 3,9 миллиарда долларов. Подвиг, который заставил бы самого Достоевского заплакать — и, возможно, согласиться с привлекательностью proof-of-stake.

Однако последний акт месяца принадлежит скромной душе, которая пошевелилась впервые за десятилетие, отправив 0.001 Ether на Kraken в том, что можно описать только как цифровой подмигивание богам. Их запас в 158 Ether, всего лишь $49 расходов в 2014 году, теперь существует в царстве безрадостной абсурдности, где такие суммы измеряются в преддесятичных единицах. Можно почти услышать далекое эхо игроков Sands of Time в 2001 году, отчаянно призывающих: «MINT PICO-SANDS, MORTAL!»

Смотрите также

2025-10-30 06:35