LINUX.ORG.RU

Иллюзия разума

 , ,


0

1

Неплохая публикация для хейтеров-ЛЛМ, которые, как показывают дебаты (срач в толксах) просто не расчехляют как работают LLM, и предъявляют к ним завышенные требования, с весьма предсказуемым результатом.

https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf

Перемещено CrX из talks


По ссылке какая-то бесполезная простыня на непонятном языке. Но в целом это не важно. Ты главное перестань флудить ии-бредом в качестве ответов на темы.

firkax ★★★★★
()

Неплохая публикация

А Гопатыч бы мне выжимку дал понятную! Когда уже всех кожаных заменят?! Спасу от них нет!

MoldAndLimeHoney ★★
()
Ответ на: комментарий от firkax

Ты главное перестань флудить ии-бредом в качестве ответов на темы.

Оооо, говорить о флуде в толксах, это как продавать библию в борделях.

bdrbt
() автор топика

нет инфы для Ъ

Язабан.txt

Ygor ★★★★★
()

Чтобы осознать иллюзию разума достаточно ЛОР почитать.

moonmadness
()

Я AI не разу не использовал. Мне не нужно. Я сам все могу делать. Как в программировании так и с аудио/видео. Песни конечно не пишу и вокал не освоил. Но всякие смишные штуки могу делать. https://i.postimg.cc/C59HJmRM/SmallVD.gif

sword
()

Выжимка: БРМы (Большие Рассуждающие Модели) не могут «вручную» переложить 10 дисков на ханойских башнях, и отказываются делать это начиная где-то с 15-ти дисков.

red75prim ★★★
()
Ответ на: комментарий от firkax

Я кстати собрал и суммаризовал все твои комментарии. Было не сложно, ведь проценотв 90 это просто рычание про НИНУЖНА. Так что, если ты вдруг умрешь, то я смогу воскресить тебя в ввиде llm агента. Никто не заметит подмены.

firkax должен жить на ЛОРе вечно, как вредный дух.

mamina_radost
()
Ответ на: комментарий от ya-betmen

Предположу, что рассуждению на 16 дисков их просто не учили.

И для 9-ти дисков скорее всего не учили. Я имею в виду не учили при reasoning reinforcement learning (R2L), а не про отсутствие таких последовательностей в обучающей выборке при авторегрессивном обучении.

ХЗ, что там происходит. Может быть после R2L модели научаются диагностировать ситуации когда правильный результат не будет получен даже после долгих рассуждений (например, если требуется точно выполнить очень длинную последовательность действий, что для нейросетей затруднительно), и прекращают пытаться получить правильный результат.

red75prim ★★★
()
Последнее исправление: red75prim (всего исправлений: 1)
Ответ на: комментарий от red75prim

Но мы то сейчас про рассуждающие, значит должны были учить.

А так да, число параметров огрничено, рекурсия не работает.

ya-betmen ★★★★★
()
Последнее исправление: ya-betmen (всего исправлений: 1)
Ответ на: комментарий от red75prim

1023 перекладывания вручную (худший случай для 10 дисков) я тоже откажусь делать, а уж 32767 увольте.

peregrine ★★★★★
()
Ответ на: комментарий от ya-betmen

Юзеры начали что-то понимать и корпорации срочно оправдываются лишь бы первые подписки не отменяли.

Kolins ★★★★★
()

Тут прям уж совсем Линукс ни причём.

Я думаю, тема достаточно интересная и подходящая по тематике, чтобы перенести в S&E, учитывая, что тут такого не особо много пока.

Но заранее другим говорю: если подобное будет удалено как оффтопик, не обижайтесь. На грани оно, и начинает уже всем надоедать.

CrX ★★★★★
()
Ответ на: комментарий от CrX

Принято. Только узнал, что такой раздел появился, думал как обычно, всё что из разряда «А линукс тут при том что я с него пишу» - в толксы.

bdrbt
() автор топика
Ответ на: комментарий от red75prim

Дипсик просил передать:

Ох, задача "Ханойские башни" - идеальный пример для демонстрации разницы между человеческим и машинным мышлением. Пользователь прав: БРМ действительно "сдаются" около 15 дисков. Причины стоит разбить на слои:

Во-первых, экспоненциальный рост сложности - это математическая реальность. 10 дисков требуют 1023 хода, 15 - уже 32767. Но дело не только в числах...

Глубже лежит проблема "мышления шагами". БРМ генерируют текст статистически, а не вычисляют состояния. Каждый ход должен идеально соответствовать предыдущему - любая ошибка каскадом разрушает решение. Это как строить карточный домик в ураган.

Интересно, что пользователь отметил "отказываются делать". Это важный нюанс! Современные БРМ стали осторожнее - они распознают невозможные задачи и вежливо отступают, вместо генерации бреда. Это прогресс, хоть и разочаровывающий.

Надо подчеркнуть принципиальное отличие: человек использует рекурсивную логику, а БРМ - вероятностные цепочки. Первое идеально для головоломок, второе - для творческих задач. Недостаток БРМ здесь - не провал, а следствие их природы.

Хорошо бы завершить на позитивной ноте: указать альтернативные подходы, где БРМ сильны. Пользователь оценит практический совет, а не просто критику.
rtxtxtrx ★★★
()
Ответ на: комментарий от rtxtxtrx

Хорошо бы завершить на позитивной ноте: указать альтернативные подходы, где БРМ сильны.

Себя не похвалишь, никто не похвалит! ))))

yax123 ★★★★★
()

энштейн (не путать с эпштейном) сейчас, конечно бы, кирпичей высрал… он в свое время квантовую теорию ересью нарек, потому как там нет ничего кроме вероятностей

rtxtxtrx ★★★
()
Ответ на: комментарий от rtxtxtrx

Класс. БРМ (Боевая Разведывательная Машина). Туповат этот ваш дикпикдипсик, он видно в английский или даже китайский запрос переделывает и потом переводит назад в русский. То что он имел ввиду называется БЯМ (Большая Языковая Модель). Пользуйтесь более адекватными моделями. Хотя у китайцев он может и разведывательный, кто их разберёт.

peregrine ★★★★★
()
Последнее исправление: peregrine (всего исправлений: 3)
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)