LINUX.ORG.RU

История изменений

Исправление wandrien, (текущая версия) :

Любой LLM агент реализует точно такую же стратегию. И память тоже прикручивают, причём структурированную (Graph RAG + Self RAG).

Вроде бы кто-то еще мне здесь писал по подобному поводу, но не могу найти, кого упомянуть. Там что-то было про рефлексию на слоях модели, близких к выходу. Ну ладно.

Суть в чем.

Мысль человека нелинейна, она имеет встроенную связь с механизмами управления мыслью. В процессе мышления работает «наблюдатель» и «внутренний критик».

Метазнание - это знание о собственном знании, мышление о собственном мышлении. Оно позволяет оценивать свой собственный мыслительный процесс, его цели, его качество и корректировать его на лету. Это итеративный, рекурсивный процесс.

У LLM вычисление производится как единое матричное вычисление от входа к выходу. Это однопроходный механизм предсказания. Он выполняет сложный анализ контекста, но у него нет встроенного механизма для оценки и коррекции самого процесса генерации в реальном времени.

LLM не может написать абзац, а потом прийти к выводу: «Знаете, предыдущий абзац был плох, давайте я его удалю и сгенерю заново».

Она всегда движется только вперед, отталкиваясь от того, что уже есть. «Рефлексия» верхних слоев — это статичный анализ прошлого для предсказания будущего, а не динамическое управление настоящим и не критичный взгляд на свои выводы.

Если LLM пошла по неверному пути, она будет согласно проявляемому моделью свойству in-context learning идти по нему дальше. Если она сгенерировала несуществующий факт, то для неё этот факт такая же истина как и любой другой истина.

И еще LLM не способна «узнать, откуда она это знает». Она не имеет метазнания.

Петли на уровне RAG, то есть «петли», которые есть в современных AI-системах — это инженерные решения, а не фундаментальные решения. Они надстроены поверх фундаментальной архитектуры модели, чтобы заставить ее имитировать подобие человеческой рефлексии.

Исправление wandrien, :

Любой LLM агент реализует точно такую же стратегию. И память тоже прикручивают, причём структурированную (Graph RAG + Self RAG).

Вроде бы кто-то еще мне здесь писал по подобному поводу, но не могу найти, кого упомянуть. Там что-то было про рефлексию на слоях модели, близких к выходу. Ну ладно.

Суть в чем.

Мысль человека нелинейна, она имеет встроенную связь с механизмами управления мыслью. В процессе мышления работает «наблюдатель» и «внутренний критик».

Метазнание - это знание о собственном знании, мышление о собственном мышлении. Оно позволяет оценивать свой собственный мыслительный процесс, его цели, его качество и корректировать его на лету. Это итеративный, рекурсивный процесс.

У LLM вычисление производится как единое матричное вычисление от входа к выходу. Это однопроходный механизм предсказания. Он выполняет сложный анализ контекста, но у него нет встроенного механизма для оценки и коррекции самого процесса генерации в реальном времени.

LLM не может написать абзац, а потом прийти к выводу: «Знаете, предыдущий абзац был плох, давайте я его удалю и сгенерю заново».

Она всегда движется только вперед, отталкиваясь от того, что уже есть. «Рефлексия» верхних слоев — это статичный анализ прошлого для предсказания будущего, а не динамическое управление настоящим и не критичный взгляд на свои выводы.

Если LLM пошла по неверному пути, она будет согласно проявляемому моделью свойству in-context learning идти по нему дальше. Если она сгенерировала несуществующий факт, то для неё этот факт такая же истина как и любой другой истина.

И еще LLM не способна «узнать, откуда она это знает». Она не имеет метазнания.

Петли на уровне RAG «петли», которые есть в современных AI-системах — это инженерные решения, а не фундаментальные решения. Они надстроены поверх фундаментальной архитектуры модели, чтобы заставить ее имитировать подобие человеческой рефлексии.

Исправление wandrien, :

Любой LLM агент реализует точно такую же стратегию. И память тоже прикручивают, причём структурированную (Graph RAG + Self RAG).

Вроде бы кто-то еще мне здесь писал по подобному поводу, но не могу найти, кого упомянуть. Там что-то было про рефлексию на слоях модели, близких к выходу. Ну ладно.

Суть в чем.

Мысль человека нелинейна, она имеет встроенную связь с механизмами управления мыслью. В процессе мышления работает «наблюдатель» и «внутренний критик».

Метазнание - это знание о собственном знании, мышление о собственном мышлении. Оно позволяет оценивать свой собственный мыслительный процесс, его цели, его качество и корректировать его на лету. Это итеративный, рекурсивный процесс.

У LLM вычисление производится как единое матричное вычисление от входа к выходу. Это однопроходный механизм предсказания. Он выполняет сложный анализ контекста, но у него нет встроенного механизма для оценки и коррекции самого процесса генерации в реальном времени.

LLm не может написать абзац, а потом прийти к выводу: «Знаете, предыдущий абзац был плох, давайте я его удалю и сгенерю заново».

Она всегда движется только вперед, отталкиваясь от того, что уже есть. «Рефлексия» верхних слоев — это статичный анализ прошлого для предсказания будущего, а не динамическое управление настоящим и не критичный взгляд на свои выводы.

Если LLM пошла по неверному пути, она будет согласно проявляемому моделью свойству in-context learning идти по нему дальше. Если она сгенерировала несуществующий факт, то для неё этот факт такая же истина как и любой другой истина.

И еще LLM не способна «узнать, откуда она это знает». Она не имеет метазнания.

Петли на уровне RAG «петли», которые есть в современных AI-системах — это инженерные решения, а не фундаментальные решения. Они надстроены поверх фундаментальной архитектуры модели, чтобы заставить ее имитировать подобие человеческой рефлексии.

Исправление wandrien, :

Любой LLM агент реализует точно такую же стратегию. И память тоже прикручивают, причём структурированную (Graph RAG + Self RAG).

Вроде бы кто-то мне здесь писал по подобному поводу, но не могу найти, кого кастануть. Там что-то было про рефлексию на слоях модели, близких к выходу. Ну ладно.

Суть в чем.

Мысль человека нелинейна, она имеет встроенную связь с механизмами управления мыслью. В процессе мышления работает «наблюдатель» и «внутренний критик».

Метазнание - это знание о собственном знании, мышление о собственном мышлении. Оно позволяет оценивать свой собственный мыслительный процесс, его цели, его качество и корректировать его на лету. Это итеративный, рекурсивный процесс.

У LLM вычисление производится как единое матричное вычисление от входа к выходу. Это однопроходный механизм предсказания. Он выполняет сложный анализ контекста, но у него нет встроенного механизма для оценки и коррекции самого процесса генерации в реальном времени.

LLm не может написать абзац, а потом прийти к выводу: «Знаете, предыдущий абзац был плох, давайте я его удалю и сгенерю заново».

Она всегда движется только вперед, отталкиваясь от того, что уже есть. «Рефлексия» верхних слоев — это статичный анализ прошлого для предсказания будущего, а не динамическое управление настоящим и не критичный взгляд на свои выводы.

Если LLM пошла по неверному пути, она будет согласно проявляемому моделью свойству in-context learning идти по нему дальше. Если она сгенерировала несуществующий факт, то для неё этот факт такая же истина как и любой другой истина.

И еще LLM не способна «узнать, откуда она это знает». Она не имеет метазнания.

Петли на уровне RAG «петли», которые есть в современных AI-системах — это инженерные решения, а не фундаментальные решения. Они надстроены поверх фундаментальной архитектуры модели, чтобы заставить ее имитировать подобие человеческой рефлексии.

Исходная версия wandrien, :

Любой LLM агент реализует точно такую же стратегию. И память тоже прикручивают, причём структурированную (Graph RAG + Self RAG).

Вроде бы кто-то мне здесь писал по подобному поводу, но не могу найти, кого кастануть. Там что-то было про рефлексию на слоях модели, близких к выходу. Ну ладно.

Суть в чем.

Мысль человека нелинейна, она имеет встроенную связь с механизмами управления мыслью. В процессе мышления работает «наблюдатель» и «внутренний критик».

Метазнание - это знание о собственном знании, мышление о собственном мышлении. Оно позволяет оценивать свой собственный мыслительный процесс, его цели, его качество и корректировать его на лету. Это итеративный, рекурсивный процесс.

У LLM вычисление производится как единое матричное вычисление от входа к выходу. Это однопроходный механизм предсказания. Он выполняет сложный анализ контекста, но у него нет встроенного механизма для оценки и коррекции самого процесса генерации в реальном времени.

LLm не может написать абзац, а потом прийти к выводу: «Знаете, предыдущий абзац был плох, давайте я его удалю и сгенерю заново».

Она всегда движется только вперед, отталкиваясь от того, что уже есть. «Рефлексия» верхних слоев — это статичный анализ прошлого для предсказания будущего, а не динамическое управление настоящим и не критичный взгляд на свои выводы.

Если LLM пошла по неверному пути, она будет согласно проявляемому моделью свойству in-context learning идти по нему дальше. Если она сгенерировала несуществующий факт, то для неё этот факт такая же истина как и любой другой истина.

И еще LLM не способна «узнать, откуда она это знает». Она не имеет метазнания.

Петли на уровне RAG «петли», которые есть в современных AI-системах — это инженерные решения, а не фундаментальные решения. Они надстроенны поверх фундаментальной архитектуры модели, чтобы заставить ее имитировать подобие человеческой рефлексии.