LINUX.ORG.RU

LLM: от предсказателя слов к подобию рефлексии

 glm, , ,


1

2

В этой статье я хочу познакомить читателя с актуальным состоянием разработок в сфере LLM. Статья носит обзорный и концептуальный характер.

Стохастический попугай… или нет?

Концепция, что LLM является «просто предсказателем слова» и «попугаем» довольно распространена в среде неспециалистов, и особенно популярна как аргумент среди скептиков ИИ. Хотя этот взгляд на ИИ определенно отражает действительность, он вместе с тем — не полон.

Точно так же мы можем сказать, что «живая клетка» - это просто «совокупность молекул в неравновесном термодинамическом состоянии», или что «компьютер просто перекладывает байты». Что мы упускаем из виду при таком способе рассмотрения? Упускаем структуру. Между «совокупностью молекул» и «клеткой» лежит мета-системный переход (на самом деле, несколько таких переходов), наличие которого определяет свойства наблюдаемого объекта.

Так же и свойства смартфона у вас в руке не определяются только лишь тем, из чего он сделан, и сколько ватт рассеивает в атмосферу.

Аналогично мы упускаем существенную часть содержания, когда говорим о LLM в понятиях простого предсказателя слов.

По мере того, как вместе с развитием науки живая клетка перестаёт быть для нас черным ящиком, так же и работа ИИ постепенно становится более понятной на системном уровне. Технологии позволяют активно экспериментировать и исследовать архитектуру и структуру мышления.


Механистическая интерпретируемость: Реверс-инжиниринг «черного ящика»

Нейросети обычно сравнивают с «черными ящиками»: мы знаем, какие данные входят, и видим результат на выходе, но процессы внутри остаются загадкой. Традиционные методы оценки ИИ похожи на QA-тестирование: мы проверяем поведение — даем разные промпты и смотрим, не сломается ли модель.

Механистическая интерпретируемость (Mechanistic Interpretability) — это попытка перейти от тестирования поведения к отладке кода. Идея заключается в том, что нейросети в процессе обучения самостоятельно формируют «схемы» (circuits) — аналог подпрограмм в коде или логических вентилей в процессоре. Эти схемы состоят из групп нейронов и весов, которые выполняют конкретные микрозадачи (например, «найти глагол в предложении» или «определить, что контекст — это код Python»).

Несмотря на то, что направление находится в самом начале пути, ученые уже нашли и описали несколько механизмов работы трансформеров.

Примеры уже выявленных механизмов:

1. Индукционные головы (Induction Heads)
Это самый известный открытый механизм. Он объясняет, как модели способны к In-Context Learning (обучению на примерах внутри промпта).

  • Логика работы: Это механизм «копипаста». Схема сканирует контекст назад и ищет текущий токен. Если она находит его в прошлом, она смотрит, что шло сразу за ним, и повышает вероятность появления этого же токена сейчас. В некотором смысле, это подобие операции копирования памяти по указателю через механизмы внимания.

2. Ингибиторные головы (Anti‑induction Heads/Inhibition Heads)
Если индукционные головы создают циклы, повышая вероятность повторения токена, то ингибиторные головы выполняют обратную функцию — они подавляют вероятность определенных токенов.

  • Логика работы: В процессе генерации некоторые части нейросети могут предлагать несколько вариантов ответа. Задача ингибиторной головы — посмотреть на контекст и сказать: «Только не этот вариант».

3. Детекторы косвенного дополнения (Indirect Object Identification)
Исследователи из OpenAI и Anthropic разобрали, как GPT-2 (маленькая версия) решает грамматические задачи.

  • Задача: В предложении «Когда Мэри и Джон пошли в магазин, Джон дал бутылку молока…» модель должна предсказать «Мэри».
  • Механизм: Была найдена конкретная цепочка нейронов, которая выполняет операции, похожие на работу с указателями. Она находит все сущности (Мэри, Джон), определяет, кто является активным субъектом в последней части (Джон), и методом исключения переносит «внимание» на оставшееся имя (Мэри), чтобы подставить его в ответ.

4. Суперпозиция и полисемантические нейроны
Это не столько механизм, сколько фундаментальная проблема, которую удалось объяснить.

  • Проблема: В обычном коде одна переменная отвечает за одно значение. В нейросетях часто встречаются «полисемантические нейроны», которые активируются на совершенно разные вещи/несвязанные признаки.
  • Объяснение: Модель пытается выучить больше признаков (features), чем у нее есть физических нейронов. Она использует «сжатие с потерями», кодируя информацию в направлениях пространства высокой размерности, а не в отдельных нейронах. Это похоже на хэш-коллизии, которые модель учится грамотно обрабатывать, чтобы понятия не смешивались.

5. Арифметика и модульное сложение
Были проведены эксперименты с небольшими моделями, обученными только сложению чисел.

  • Открытие: Оказалось, что для выполнения операции (a + b) % n нейросеть в ходе обучения «изобрела» алгоритм, использующий тригонометрические функции (преобразование Фурье). Она вращает векторы чисел в многомерном пространстве, чтобы выполнить сложение через повороты, а не через прямую арифметику. Это показало, что ИИ может находить алгоритмические решения, которые человеку не интуитивны, но математически эффективны.

6. Вектор «правды и лжи» (Truthfulness Directions)
Исследования показывают, что в остаточном потоке (residual stream) нейросети присутствуют конкретные направления, которые коррелируют с понятиями «правда» и «ложь».

  • Эксперимент: Если во время генерации ответа искусственно добавить этот вектор к активациям нейронов в определенном слое, модель более склонна говорить правду. Если же вектор вычесть — модель начинает активнее галлюцинировать или говорить неправду, даже если ей не давали прямого распоряжения.
  • Суть: Модель интернализировала понятие фактологичности. Внутренние представления могут содержать сигнал о том, сообщает ли модель правдивые или ложные (в рамках её собственной модели мира) сведения. Модель может создавать галлюцинацию, потому что в конкретной ситуации векторы «дать красивый ответ/соответствовать стилю/быть полезной/быть помощником» оказались приоритетнее «правдивости».

Таким образом вероятно, что в будущем механистическая интерпретируемость позволит перейти от чистого «выращивания» моделей к работе со структурой мышления и целевому редактированию характеристик модели.


Переход от «интуитивного понимания» к «рассуждению»

В когнитивной психологии популярна концепция двух систем мышления:

  • Система 1 — это быстрая, интуитивная и автоматическая реакция. Она не требует усилий, работает на основе распознавания шаблонов и накопленного опыта.

  • Система 2 — медленная, аналитическая и последовательная система. Она включается для сложных вычислений, логических рассуждений и требует концентрации внимания.

Что это означает применительно к ИИ:

У современных LLM «Система 1» включена по умолчанию — потому что базовая задача обучения (предсказывать следующий токен) естественным образом поощряет быстрое распознавание шаблонов. Модель отлично умеет:

  • продолжать знакомые структуры текста (стиль, тон, жанр),
  • угадывать вероятные факты из статистики корпуса,
  • «схватывать» типовую логику диалога и социальные паттерны,
  • делать правдоподобные обобщения.

Но эта же «быстрота» имеет обратную сторону: если задача требует точного пошагового вывода, удержания инвариантов, строгой проверки условий или длинной цепочки зависимости, то одна лишь Система 1 начинает давать сбои. Отсюда — уверенные ошибки, «галлюцинации», хрупкость на редких кейсах.

Как у LLM появляется «Система 2»

У модели нет отдельного «модуля рассуждения», который работал бы параллельно процессу вывода токенов. В отличие от человека, она не может на существенную глубину «прикинуть действия в уме», используя кратковременную (оперативную) память. Таким образом для длинного пошагового мышления следует где-то явным образом хранить промежуточные состояния, и у LLM очевидный доступный носитель таких состояний — сгенерированные ею же токены.

Когда модель пишет промежуточные шаги, она делает две вещи:

  1. Выгружает часть внутреннего состояния наружу (в текст).
  2. Снова читает этот текст как контекст, то есть использует его как рабочую память для следующего шага.

Так появляется практический аналог Системы 2: медленнее, дороже по токенам, но способно удерживать структуру решения. Поэтому простые приемы вроде «решай пошагово» часто заметно повышают качество на задачах рассуждения (хотя и не гарантируют правильность).

Система 2 для LLM означает вынос внутреннего процесса обработки связей — в контекст. Это позволяет модели «дебажить саму себя» до выдачи финального ответа.

Еще одна аналогия: машина Тьюринга. Контекст для записи токенов выступает как лента машины Тьюринга, на которой происходит поэтапная обработка.


Арифметика как наглядный пример

Недавно мне попалась статья «Если ИИ не мыслит, то как он решает математические задачи?», которая является переводом статьи из англоязычного источника. Не вдаваясь в философию «мыслит ли ИИ», я хочу обратить внимание на конкретный практический пример.

Автор рассматривает промпт 36 + 59 = и показывает, что модель сразу даёт ответ: 95. Если же далее спросить модель, как она считала, она распишет по шагам процедуру сложения, что верно математически, но при этом не отражает сути вопроса: сама она считала не так, ведь она не выписывала шаги. При ответе пользователю модель сочинила post-hoc рационализацию.

В рассмотренном примере ИИ решает математические задачи при помощи тех самых «процедур» и «цепей», формирующихся внутри LLM при обучении.

Стоит упомянуть, что автор рассматривает простой пример 36 + 59 =, но если взять пример сложнее, например 20206 + 37546 =, и потестировать его на моделях в ollama, то многие LLM также сразу дают ответ без промежуточных шагов. Как верно указывает автор, чем сложнее пример, тем чаще модель ошибается.

Вплоть до этого места моя позиция совпадает с позицией автора. Но далее начинаются тонкости, которые автор не упомянул.

Если мы возьмём современную рассуждающую модель, например серии GLM, и попросим её посчитать 20206 + 37546 =, то увидим сначала в блоке рассуждений алгоритм сложения по шагам, а уже затем — финальный результат.

Это означает, что здесь модель комбинирует Систему 1 для элементарных операций («6 + 6 будет 12, 2 пишем, 1 переносим в старший разряд») и Систему 2 для следования процедуре сложения.

Такой подход хотя и не избавляет от галлюцинаций, но заметно понижает их вероятность. Также качественно обученная модель нередко способна обнаружить ошибку в сгенерированном контексте и исправиться «на лету». Если модель обучают так, чтобы она «не боялась» критически пересматривать соображения, и поощряют такое поведение, модель формирует соответствующие шаблоны самокритики и самоисправления.


Проблема имитации рассуждения

Даже в рассуждающем режиме модели зачастую не «рассуждают», а «имитируют рассуждения», копируя структуру примеров рассуждения из обучающей выборки без обращения к их сути. На практике это приводит к появлению «структурированных», но логически не целостных рассуждений, при этом логические дыры в них сама модель не замечает и себя не корректирует.

Также может быть, что цепь рассуждений говорит одно, а финально модель решает другое. Связь «рассуждение → вывод» имитирована по форме, но суть упущена.

Переход от имитации ко всё более содержательному рассуждению, способному рассматривать предмет мышления по существу, обращать внимание на собственные ошибки и корректировать их — это одно из самых актуальных направлений в сфере ИИ сейчас.

Практические ограничения

Среди открытых моделей по моему опыту весьма структурные рассуждения с возможностью критически относиться к собственным выводам демонстрирует GLM. Поэтому на её примере я опишу ограничения, наблюдаемые в реальной работе. По большей части эти же ограничения относятся и к другой известной открытой модели, DeepSeek-R1, но с GLM у меня просто больше практического опыта.

  • При анализе сложного материала модель выполняет пошаговый анализ на верхнем уровне, но не детализирует рассуждения «вниз», полагаясь на интуитивные выводы Системы 1. В конкретных случаях это может приводить к существенным неточностям рассуждений. Модель выбирает шаблонные связи из опыта обучения вместо реально существующих в тексте. Видно, что пока что у модели не хватает внутренних инструментов, чтобы удерживать сложный рекурсивный контекст.
  • Может быть и обратная ситуация. Модель подробно анализирует отдельные факты и суждения, выдвигает гипотезы, проверяет, отбрасывает неудачные. Но при этом не выходит на глобальный уровень анализа материала, в результате чего пропускает важные закономерности.
  • Порой модель может полностью сгаллюцинировать вызов внешнего инструмента и его ответ, таким образом заменив суть — формой, правдоподобной имитацией.
  • Иногда модель не понимает/не рефлексирует, на каком языке сейчас говорит. Можно провести аналогию с тем, что у человека производство речи тоже весьма «автоматично».

Стоит отметить, что у моделей сокращенного размера (например qwen3-vl:4b) может наблюдаться «неспособность прийти к конкретному выводу». Модель перебирает различные гипотезы, но сигнал на завершение рассуждения не формируется, порождая хождение по спирали до исчерпания лимита по токенам. У такой маленькой модели не хватает ёмкости, чтобы качественно удерживать внимание на соображениях, которые она сама и написала.

Способность «написать детальные соображения, а потом посмотреть на них» зависит как от приёмов тренировки, так и от ёмкости. У маленькой модели просто нет возможности сформировать качественные внутренние цепи.


Следующий шаг: Система 2 с опорой на инструменты

У людей Система 2 часто опирается на внешние средства: бумагу, калькулятор, справочники, эксперименты. Для ИИ ровно тот же путь оказался ключевым: вместо того чтобы требовать от модели «держать мир в голове», мы даем ей:

  • калькулятор / Python для вычислений,
  • поиск и цитирование источников для фактов,
  • тесты и линтеры для кода,
  • базы знаний и API.

Подходы вроде ReAct объединяют «рассуждение» и «действие» (вызов инструмента), превращая модель из говорящего предсказателя токенов в систему, которая может проверять себя об внешний мир. Также современные исследования показывают, что модель можно обучать так, чтобы она сама решала, когда звать инструмент и как встроить результат обратно в контекст.

На пути ко всё более сильному ИИ

Сейчас мы наблюдаем зарождение алгоритмического рассуждения у моделей. LLM как «рассуждающая система» появляется, когда мы добавляем структуру процесса: промежуточные записи, проверку, поиск, инструменты, критерии отбора, итерации.

Сегодня многие практические системы строятся как композиция:

  1. базовой модели (Система 1: язык и шаблоны)
  2. обвязки, создающей Систему 2 (планирование, внешняя память, проверка, поиск, инструменты, отбор траекторий)

Скептическая фраза про «предсказатель следующего слова» становится менее убедительной, когда мы рассматриваем не отдельный шаг предсказания, а замкнутый контур вычисления: модель → промежуточный вывод → самопроверка/инструмент → обновленный контекст → следующий шаг.

Именно в этих контурах сегодня и происходит прогресс: не просто добавить в модель больше параметров, а как заставить модель тратить вычисление на мысль, а не на правдоподобную импровизацию.

★★★

Проверено: hobbit ()
Последнее исправление: hobbit (всего исправлений: 3)
Ответ на: комментарий от Bad_ptr

Про аналогии с детьми стоит подумать, что за разные функции отвечают разные части мозга. Вероятно они имеют оптимизированные под задачи структуры.

ya-betmen ★★★★★
()
Ответ на: комментарий от ya-betmen

стоит подумать, что за разные функции отвечают разные части мозга

А ещё стоит подумать о том что детям могут удалить одно из полушарий и ничего, вырастают нормальными.
Ну и примеры типа этого, который приносил Obezyan

Bad_ptr ★★★★★
()
Ответ на: комментарий от Bad_ptr

А ещё стоит подумать о том что детям могут удалить одно из полушарий и ничего, вырастают нормальными.

99,999% нормальными не вырастут. Да, бывают единичные на всю планету экстремальные случаи, которые представляют собой загадку и хорошую тему для дискуссий. Но на практике куда чаще приходится иметь дело с прямо противоположными по смыслу случаями, когда, например, лакунарный ишемический инсульт, который на компьютерной томографии не всегда видно из-за малых размеров, имеет все шансы превратить человека в инвалида.

Leupold_cat ★★★★★
()
Последнее исправление: Leupold_cat (всего исправлений: 1)
Ответ на: комментарий от Leupold_cat

лакунарный ишемический инсульт Ну инсульт – это резкое событие и как правило во взрослом возрасте, когда мозг уже «настроен» и «сформирован» и тут ему резко «меняют планировку». Ну и понятно что есть части мозга которые критически важны.

Bad_ptr ★★★★★
()
Ответ на: комментарий от Leupold_cat

Кстати, ты же вроде врач и как раз на этом специализируешься. С возрастом корреляция в худшую сторону значительная или нет? По идее в теории должна быть значительная, т.е. чем старше тем меньше нейрончиков и как следствие хуже пластичность. С другой стороны конечно чем раньше инсульт, тем больше проблем со здоровьем изначально. Просто в ИИ есть довольно старое направление и куча идей из него, когда во время обучения удаляются/добавляются нейроны (ну например тот же нейронный газ). Интересно насколько нейронки коррелируют с реальными мозгами.

peregrine ★★★★★
()
Ответ на: комментарий от Obezyan

Те по вашему в мозгу муравья электрические сигналы не ходят?

электрические сигналы везде в природе ходят.. но результат разный

Bad_ptr ★★★★★
()
Последнее исправление: Bad_ptr (всего исправлений: 1)
Ответ на: комментарий от Bad_ptr

Там ещё вопрос к тому, что части мозга которые ещё работают, насколько они здоровые, инсульт то не на ровном месте случился, т.е. кровоснобжение упало до того уровня, что клекти мозга отмерли. Те которые не отмерли могут голодать и тоже работать хуже? ХЗ, надо у Кота Леопольда спрашивать.

peregrine ★★★★★
()
Ответ на: комментарий от Leupold_cat

Ладно, с мозгом реальным всё сложно конечно из-за его реальности, биологичности, химичности и физичности.. Моя мысль которую я хотел сказать была проста – что да, есть «отделы мозга» занимающиеся определёнными функциями, но не все они чётко и жёстко локализованы с начала жизни и могут и поменять свои локации.

Bad_ptr ★★★★★
()
Последнее исправление: Bad_ptr (всего исправлений: 2)

В этой статье я хочу познакомить упирающегося читателя с актуальным состоянием разработок в сфере LLM, игнорируя крики «да вы уже за**али», «верните цены на раму» и т.д.

thesis ★★★★★
()
Ответ на: комментарий от peregrine

Люди в молодом возрасте восстанавливаются после инсультов, как правило, лучше, чем пожилые. Но это далеко не самый определяющий фактор для прогноза. Например, локализация и объем поражения мозга намного важнее.

Leupold_cat ★★★★★
()
Последнее исправление: Leupold_cat (всего исправлений: 1)
Ответ на: комментарий от ya-betmen

человеки умеют чесать левое ухо правой рукой.

ну вот смотри, ты говоришь что в мозгу есть «центр» отвечающий за речь. А я говорю, а если ребёнка речи не обучили? Воооот.. значит эти «центры» имеют возможности «самоорганизации» и «самопроявления» под «обучающим воздействием».

Bad_ptr ★★★★★
()
Ответ на: комментарий от thesis

верните цены на раму

А зачем тебе рама, если не для запуска нейронок?

mamina_radost
()
Ответ на: комментарий от peregrine

Те которые не отмерли могут голодать и тоже работать хуже?

Да. Что при инсульте, что при хроническом нарушении мозгового кровообращения, клетки, имеющие недостаточное кровоснабжения для функционирования, но достаточное для поддержания их существования, могут не принимать участие в проведении и генерации импульсов.

В случае именно инсультов для этого даже придумана концепция «пенумбры».

Leupold_cat ★★★★★
()

Открытие: Оказалось, что для выполнения операции (a + b) % n нейросеть в ходе обучения «изобрела» алгоритм, использующий тригонометрические функции (преобразование Фурье). Она вращает векторы чисел в многомерном пространстве, чтобы выполнить сложение через повороты, а не через прямую арифметику. Это показало, что ИИ может находить алгоритмические решения, которые человеку не интуитивны, но математически эффективны.

Вопросы:

  1. Как это решение может быть эффективным?
  2. Оно ведь наверняка считает с погрешностью?
  3. Как смогли понять, что модель чего-то там изобрела?

Остальные примеры так же похожи на мифы из мира ИИ, чем на что-то реальное и полезное.

Kogrom
()
Ответ на: комментарий от Bad_ptr

Все так, со временем разные отделы мозга могут брать на себя функции которые не были им свойственны заменяя другие поврежденные отделы.

Те имеем следующее:

  1. Сложная, плотно упакованная «не плоская структура» нейронов и их связей
  2. Возможность изменения связей, в местах где активнее проходят сигналы наростает больше новых нейронов и связей между ними. Там где мало проходит сигналов - отмирает.
  3. Постоянная бомбардировка входящей информацией, огромным потоком информации (зрительная, слуховая, обонятельная, тактильная) который долбит эту структуру прошивая электрическими импульсами.

п.3 запускает процесс перестройки п.2 который возможен благодаря п.1 - это и есть обучение.

Obezyan
()
Ответ на: комментарий от Obezyan

для контраста, в современных сетях:

  1. вместо сложной структуры - плоская.
  2. изменения связей нет, только изменение весов активаций этих связей. а вместо «спайка» идет дискретный сигнал.
  3. бомбардировка информацией только на этапе обучения.

Те текущие нейронные сети ни по одному параметру не подходят под те варианты которые мы имеем в качестве образцов интеллекта. И только в последние пару лет исследователи начали это понимать и пытаться изменить.

Obezyan
()
Ответ на: комментарий от Bad_ptr

Нет, я говорю, что эти центры не формируются сами собой в процессе обучения а уже существуют и заточены под определенные задачи, и возможно это жжж неспроста.

ya-betmen ★★★★★
()
Ответ на: комментарий от Obezyan

Те текущие нейронные сети ни по одному параметру не подходят под те варианты которые мы имеем в качестве образцов интеллекта. И только в последние пару лет исследователи начали это понимать и пытаться изменить.

Что в текущем виде у нейросетей есть огромные архитектурные недостатки знают все, кто ими плотно занимается, вопрос только в каком направлении и как их исправлять, насколько нужно пытаться имитировать именно естественные?

Из удачных имитаций на ум приходят свёрточные сети (CNN), которые оказались прорывными для компьютерного зрения.

Интересно, что нейронные сети как раз и начались (статья Маккаллока и Питтса в 1943-м) с попытки моделировать устройство естественного интеллекта. Да и в дальнейшем в этом направлении двигались, даже персептрон Розенблатта, который наверное можно считать родоначальником совремённых нейросетей, по своей задумке был всё-таки моделью нейронных связей.

Можно аналогию с полётами в воздухе привести. Были и даже есть попытки в подражание птицам сделать махолёт (орнитоптеры) и некоторые даже успешные - летают, но это явно не направление для развития, скорее курьёз, в лучшем случае имеющий преимущества в каких-то весьма особенных ситуациях.

anonymous_incognito ★★★★★
()
Для того чтобы оставить комментарий войдите или зарегистрируйтесь.