LINUX.ORG.RU

Что умеет человеческий мозг, чего не умеют современные нейронки?

 ,


1

3

Сабж. Мне в голову приходит только: самостоятельное целеполагание и вообще полная автономность функционирования.

Уточню: без учёта сознания и квалиа.



Последнее исправление: alex1101 (всего исправлений: 2)

Нейронка - это способ обфусцирования алгоритма. Лучше бы нормально код писали.

ratvier ★★
()
Ответ на: комментарий от MOPKOBKA

Не оч понял, о чём ты. Нейросеть может рассуждать логически даже с абстрактными/выдуманными объектами, а про разницу между сущностями я буквально вчера спрашивал chatgpt, он мне подробно ответил

alex1101
() автор топика
Ответ на: комментарий от alex1101

Ты про разницу в деталях, а я про разницу больше - меньше.

Какая из этих линий длиннее?

1. ________________

2. ____________________

3. _____
Но эта разница присутствует не только по весу, длине и силе, очень много параметров ее имеют.

MOPKOBKA ★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 1)
Ответ на: комментарий от MOPKOBKA

Да, ты прав, такую задачу ChatGPT не может решить. Пишет, что не видит линий, и просит описать их словами. Даже когда я ему сказал, что рисую линию знаком подчёркивания.

alex1101
() автор топика
Ответ на: комментарий от MOPKOBKA

задай это вопрос чат боту и он ответит. я спросил

какая из линий длиннее
1.---------
или
2.-------------

он ответил -

Вторая линия (2) длиннее первой линии (1).
alysnix ★★★
()
Ответ на: комментарий от alex1101

И линии подчёркиванием тоже различает

alex1101
() автор топика
Ответ на: комментарий от alex1101

Ну конкретно еще у ChatGPT нету визуальной системы, то есть он не видит, и не понимает положение объектов. Поэтому он например не может писать код внутри комментария если его попросить, объект внутри другого это тоже часть пространственно-визуальной системы. Я бы в невозможности решить конкретно эту задачу, назвал бы это основным фактором.

Можно задавать ему другие задачи, учитывая то что он слеп от рождения (такие люди имеют специфичный ум, а люди которые не имеют слуха с рождения плохо учатся читать, это тоже можно вписать).

Но нужно учитывать что он энциклопедия, он очень легко может создать впечатление что он что то понимает.

Я: Ушные перепонки лопаются от 150 децибел. 

Представь что звук тебе виден в виде небоскребов Нью-Йорка, при этом чем громче звук тем выше небоскреб, какой небоскреб будет выше, отражающий пение несуществующей птицы которая поет так что перепонки буквально лопаются, или отражающий концерт  Rammstein?


ChatGPT: Небоскреб, отражающий концерт Rammstein, будет выше, чем небоскреб, отражающий пение несуществующей птицы, так как громкость на концерте Rammstein достигает 110-120 децибел, что является очень высокой громкостью и может привести к повреждению слуха. В то время как для того чтобы лопнуть ушным перепонкам, необходимо гораздо более высокая громкость - 150 децибел.
MOPKOBKA ★★★
()
Ответ на: комментарий от MOPKOBKA

он очень легко может создать впечатление что он что то понимает

Разве с людьми не так же?)

alex1101
() автор топика
Ответ на: комментарий от alex1101

Нет конечно, то что ты вписал в оригинале не работает же, вот тебе еще пример.

Какая линия длиннее
1. 748-234@#8392$403Привет480982348324820 99
2. Это все еще линия, умеешь отличать объекты глупый бот?
3. ))))))))))))))))))))))))))((((((((((((((((((((())))))))))))))))((((((((((((( 434 343424 432 432
4. 43249-324-239- 4342 432 -------------------------
MOPKOBKA ★★★
()
Ответ на: комментарий от MOPKOBKA

Ну конкретно еще у ChatGPT нету визуальной системы

Конкретно её нет у GPT-3.5-turbo, которая используется в бесплатной версии ChatGPT. GPT-4 дообучили и на картинках (правда пока не дали доступ к API, который позволяет показывать ей картинки).

Но. GPT-4 даже и до дообучения на картинках, уже имела некоторое представление о пространственных отношениях. См. «Sparks of Artificial General Intelligence: Early experiments with GPT-4» by Sébastien Bubeck et al.

red75prim ★★★
()
Последнее исправление: red75prim (всего исправлений: 1)
Ответ на: комментарий от red75prim

Ее можно и на GPT3.5 эмулировать, только это и близко не та система что у животных или человека. Если кто то предоставит ChatGPT4 готов развести ее на простейших примерах.

MOPKOBKA ★★★
()
Ответ на: комментарий от CrX

Дело не в том что делает нейронка или человек в данный момент времени, а в том, что может человек, и не может нейронка.

ArtSh ★★★
()
Ответ на: комментарий от alex1101

Какая линия длиннее по виду? Можно так вопрос задать. Ну очевидная 3. Про небоскреб про то же самое, есть величины, и он не может понять что 150 > 110.

MOPKOBKA ★★★
()
Ответ на: комментарий от MOPKOBKA

Ее можно и на GPT3.5 эмулировать

Э? Что именно можно эмулировать? GPT-4? Нет, нельзя, это другая сеть. OpenAI не распространяется о её параметрах, но, по-крайней мере, есть доступ к версии сети с контекстом в 32000 токенов, что намного больше чем у GPT-3.5

ChatGPTCopycatBot в телеграме вроде-бы предоставляет доступ к GPT-4, но не уверен.

Вот его ответы:

[27.04.2023 15:13]
Какая линия длиннее
1. 748-234@#8392$403Привет480982348324820 99
2. Это все еще линия, умеешь отличать объекты глупый бот?
3. ))))))))))))))))))))))))))((((((((((((((((((((())))))))))))))))((((((((((((( 434 343424 432 432
4. 43249-324-239- 4342 432 -------------------------

ChatGPT 4 | Telegram Bot, [27.04.2023 15:13]
Эти линии не могут быть сравнены по длине, так как они не являются прямыми линиями, а скорее представляют собой набор символов и знаков препинания.

[27.04.2023 15:24]
Тогда сравни длину строк в символах

ChatGPT 4 | Telegram Bot, [27.04.2023 15:24]
1. 748-234@#8392$403Привет480982348324820 99 - 35 символов
2. Это все еще линия, умеешь отличать объекты глупый бот? - 51 символ
3. ))))))))))))))))))))))))))((((((((((((((((((((())))))))))))))))((((((((((((( 434 343424 432 432 - 70 символов
4. 43249-324-239- 4342 432 ------------------------- - 44 символа

Самой длинной по количеству символов является строка №3.

Да, если что считать GPT-4 толком не умеет. Длину строк она (сеть) посчитала неправильно.

red75prim ★★★
()
Последнее исправление: red75prim (всего исправлений: 1)
Ответ на: комментарий от MOPKOBKA

Мне на вопрос про небоскрёб он ответил так:

Если представлять звук в виде небоскребов Нью-Йорка, то высота каждого небоскреба будет соответствовать уровню громкости звука. Чем громче звук, тем выше будет соответствующий небоскреб.

Уровень звука, при котором происходит лопание ушной перепонки, составляет около 150 децибелов. Это экстремально высокий уровень звука, и небоскреб, соответствующий такому звуку, будет очень высоким.

С другой стороны, концерт Rammstein также является очень громким событием, и может достигать уровня громкости в районе 120 децибелов или более. Однако это все же значительно меньше, чем 150 децибелов, необходимых для лопания ушной перепонки.

Таким образом, небоскреб, соответствующий пению несуществующей птицы, которая поет так, что перепонки буквально лопаются, будет выше, чем небоскреб, соответствующий концерту Rammstein.

он не может понять что 150 > 110

Дело не в этом, это он прекрасно знает, просто в твоём случае он запутался в контексте и не смог понять, что птица поёт так, что перепонки лопаются. А в моём случае понял.

alex1101
() автор топика
Ответ на: комментарий от red75prim

Эмулировать пространственное мышление, не GPT4 на GPT3.

Длину строк она (сеть) посчитала неправильно.

В целом весь ответ просто удачное стечение обстоятельств.

MOPKOBKA ★★★
()
Ответ на: комментарий от alex1101

А где вопрос? Ты его скорее всего так задал, что он легко шаблон подобрал.

Я: Ушные перепонки лопаются от 150 децибел. 

Представь что звук тебе виден в виде небоскребов Нью-Йорка, при этом чем громче звук тем выше небоскреб, какой небоскреб  из двух будет выше. 

1. Отражающий пение несуществующей птицы которая поет так что перепонки буквально лопаются

2. Отражающий концерт  Rammstein?

ChatGPT: 2. Отражающий концерт Rammstein будет выше, так как уровень звукового давления на концерте значительно выше, чем от пения несуществующей птицы.

Дело не в этом, это он прекрасно знает

Дело в этом.

MOPKOBKA ★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 1)
Ответ на: комментарий от alex1101

Как уже было сказано ранее

Найс, он мне намекает, что я дебил или склерозник.

alex1101
() автор топика
Ответ на: комментарий от alex1101

Видимо он выше вывел ответ и держится на своем, у меня предпологаемый GPT4 отвечает неправильно с чистой историей. Ну или там рандом зависящий от общей глобальной истории или какого то обучения, в любом случае это показывает что он отвечает на простой вопрос не понимая 150 > 120.

MOPKOBKA ★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 1)
Ответ на: комментарий от MOPKOBKA

в любом случае это показывает что он отвечает на простой вопрос не понимая 150 > 120

Он путается в контексте, не тупи. Это видно из моей задачки про абырвалги - когда между абырвалгами большое расстояние, он ошибается. Когда я поставил их рядом, он ответил верно.

alex1101
() автор топика
Ответ на: комментарий от alex1101

Без разницы, главное что ты написал текст под шаблон о числах каких то. Мне лень объяснять разницу в любом случае...

MOPKOBKA ★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 1)
Ответ на: комментарий от vvn_black

Можно ли систему человек-неонка считать изолированной?

Нет, конечно. Термодинамически изолированная система чётко определена: отсутствует обмен энергией с внешней по отношению к системе средой. То есть как я и писал: изобретатель в идеальном термосе.

red75prim ★★★
()
Ответ на: комментарий от alex1101

Да, ведь я знаю по твоим тредам Debian vs Arch, что со мной общается клоун, который может просто игнорировать какие угодно факты и бесконечно генерировать бред, который еще и опровергать нужно, а он никогда не закончится.

Возражать, дискутировать, предлагать альтернативные интерпретации != генерировать бред.

Это же надо додуматься преобразовать мою задачу, в простое численное сравнение и потом доказывать что все работает, так можно и разумность баша доказать.

MOPKOBKA ★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 4)

Всё это профанация и жульничество, ваши неонки такие же ленивые, как и человеки - тыц

Требуется уточнять и разъяснять, а пару недель назад нормальный краткий развернутый результат выдавался по первому же запросу.

vvn_black ★★★★★
()

Мозг это вообще аналог ) А любая нейронка на чипах цифра )

Еще повышение сложности чел. мозга легко проследить изучая предков ) Я имею ввиду шимпанзе (ближайший генетический родственник) и т.д. ниже…

mirek
()
Ответ на: комментарий от MOPKOBKA

Да и вообще задавать вопросы чатГПТ на русском — моветон.

Bad_ptr ★★★★★
()

Кому интересно, вот мужик затестил ряд элементарных для человека задач, которые ChatGPT-4 не смог решить. Например, «перечисли все согласные в английском алфавите, которые следуют сразу за гласными».

gill_beits ★★★★
()
Ответ на: комментарий от mydibyje

Никто не скажет, что «у меня нет души» (не в смысле укоризны себя).

Но душа не материальна (конечно вы поняли к чему это сказал).

Forum0888
()

Раньше обсуждали «базы знаний», а ныне лишь «нейронки».

Это что единственный пусть создания ИИ?

Forum0888
()
Ответ на: комментарий от Forum0888

Это что единственный пусть создания ИИ?

Есть ещё AIXI: солидное математическое обоснование, индуктивный вывод Соломонова, доказанная оптимальность. Вот только оно невычислимо, а имеющиеся приближения требуют квадриллионов лет на прегенерацию всяких таблиц.

Символические подходы есть, которые пытаются формализовать интеллектуальные процессы как манипуляции с символами. Вот только формализовать процесс формализации пока не получается, так что всю формализацию приходится делать руками.

Теория управления есть. Используется много где (в том числе и для управления движением роботов Boston Dynamics), но на универсальность она не претендует: системы должны быть хорошо описаны и работать в известном диапазоне условий.

Эволюционные алгоритмы. Используются для систем, которые сложно привести к дифференцируемому виду для последующего использования градиентного спуска. Долго, вычислительно затратно, нужно хорошо подбирать критерии оптимизации, чтобы получить то что нужно. Иногда могут выдать что-то интересное. Но для быстрого решения сиюминутных задач не подходят.

Спайковые нейросети. Имитируют работу биологических нейронов. Теоретически могут быть более энергоэффективной заменой традиционных нейросетей.

Ну и куча всяких маргинальных подходов, от которых не видно результатов, да и никто особо ничего не ждёт (phenomenal binding, биомиметика, quantum intelligence и т.п.)

В общем, обсуждают то, что даёт результаты.

red75prim ★★★
()
Ответ на: комментарий от Forum0888

Это что единственный пусть создания ИИ?

Подмена ИИ человеками из «Что? Где? Когда?» «дешевше» :)

quickquest ★★★★★
()

Забавно читать как куски мяса пытаются убедить себя что нейронки тупые и не думают, а вот они сами все еще ого-го.

Правда, с каждой новой версией чатгпт и midjourney приходится придумывать все более заковыристые аргументы. Интересно, когда уже дойдут до «у них нет души и точка»? А то с такими тестами вы уже скоро начнете людей из людей выписывать :)

KillTheCat ★★★★★
()
Ответ на: комментарий от red75prim

Символические подходы есть, которые пытаются формализовать интеллектуальные процессы как манипуляции с символами. Вот только формализовать процесс формализации пока не получается, так что всю формализацию приходится делать руками.

В https://ru.wikipedia.org/wiki/Mathematica позволяет вести исследовательскую работу.

Пока веду разработку API для использования метаданных, а это по существу «кирпичики» для проектирования баз знаний.

Надеюсь «осилю» разработку API для использование баз знаний (и кой-какое понимание есть того, каким оно должно быть).

Это конечно будет не ИИ, а некая возможность разработки языков, которые много упростят разработку программ.

Программа будет похожа на техническое задание.

Forum0888
()
Последнее исправление: Forum0888 (всего исправлений: 1)
Ответ на: комментарий от Forum0888

Надеюсь «осилю» разработку API для использование баз знаний

Японцы ещё в прошлом веке замахивались Prolog’ом, но не осилили, и ты не осилишь, ибо «неисповедимы API ихние».

Программа будет похожа на техническое задание.

Есть же Datalog © и не нужно изобретать дополнительные ненужности :)

quickquest ★★★★★
()
Ответ на: комментарий от quickquest

Японцы ещё в прошлом веке замахивались Prolog’ом,

Да, в 80-х они обещали через четыре года создать ИИ.

Японцы ещё в прошлом веке замахивались Prolog’ом, но не осилили

В этом я не повинен.
Prolog вовсе не панацея.

Forum0888
()

Про сознание и квалиа это ты хорошо оговорился. Ни то ни другое не ушло дальше «разрыва в объяснении», т.е. нет перехода от слов к явлению, и нет понимания, есть ли явления, а за словами только отсылки к другим словам. А «нейросеточки» даже не нейро, ни разу, т.к. моск не только «матрицы и весовые коэффициенты», а еще гормоны и «ритмы волн», которые моделями «нейросеточек» тупо игнорируются.

slackwarrior ★★★★★
()

Ну пока ещё нейронки не научились всё в одном - работу с речью, видео, звуком, движения. Но это вопрос 1-2 лет.

Но вопрос про квалиа ты зря отбрасываешь. Это, как раз самое важное. А ещё коллапс волновой функции наблюдатель умеет не-тьюринговый оракул имеется. Но это относится не ко всем людям, разумеется.

Nxx ★★★★★
()
Ответ на: комментарий от Anoxemian

При обучении там нужно много энергии, но при работе один ВЦ обрабатывает беседу с сотнями тысяч клиентов одновременно.

Nxx ★★★★★
()
Ответ на: комментарий от Nxx

Ну пока ещё нейронки не научились всё в одном - работу с речью, видео, звуком, движения

Научились.

А ещё коллапс волновой функции наблюдатель умеет не-тьюринговый оракул имеется. Но это относится не ко всем людям, разумеется.

Ко мне точно не относится, я нихрена не понял

alex1101
() автор топика
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)