LINUX.ORG.RU

GNOME 2.12 - что день грядущий нам готовит


0

0

До релиза гнома 2.12 еще больше месяца. Но коль скоро feature freeze уже наступил, можно оглядеть поле битвы и прикинуть расклад. Что и сделал Davyd Madeley (мейнтейнер gnome-applets). Сделал, как всегда, довольно качественно. Да, самое главное: теперь там ЕСТЬ РЕДАКТОР МЕНЮ!:)

>>> Подробности

★★★★★

Проверено: svyatogor ()

Ответ на: комментарий от aist1

Да нет, религиозного аспекта нет, но я ведь обяснял, что это нечто с очень большими последствиями, и отношусь к этому осторожно, ведь люди из любой идеи умеют получать максимум вреда.

Я скачал, сейчас почитаю, подумаю.

argin ★★★★★
()
Ответ на: комментарий от aist1

>Из принципов работы головного мозга. Не очевидно?

нет

>Там есть микроуровень и макроуровень. На микроуровне нейроны и нелинейная динамика. На макроуровне хаос элиминируется и уступает место алгоритмам, уже известным по задачам ИИ. Микроуровень и макроуровень мозга связаны между собой как логический и физический уровни микропроцессора -- достаточно логического моделаирования чтобы получить повдение, эквивалентное реальному процессору.

ты так уверен, что ИИ можно реализовать только как модель человеческого мозга? сочувствую.

geek ★★★
()
Ответ на: комментарий от aist1

>Твои аргументы ?

для создания разумной машины вовсе не обязательно копировать нервную систему и мозг человека. Более того, скопировать (и даже сэмулировать) человеческий мозг нельзя будет ещё очень долго. Банально мегагерцев не хватит =)

сознание - это прежде всего система с обратной связью. а не комок нейронов.

geek ★★★
()
Ответ на: комментарий от sin_a

>а конструктив - есть какой ? :)

конструктив? вот: попытка создания ИИ на базе нейронных сетей аналогично попытке создания махолёта =)

geek ★★★
()
Ответ на: комментарий от geek

> попытка ... аналогично попытке создания махолёта =)

Аййй...! Какой-же это конструктив??? Это ты говоришь, что чел не прав.

А ты скажи ему как надо! Направь его. Если знаешь куда идти. А если не знаешь - то сам можешь быть не прав. Откуда ты знаешь, если не знаешь?

sin_a ★★★★★
()
Ответ на: комментарий от geek

пока у меня только гном, xpdf после компиляции не создает бинарник , смотрю в gsview, проблема как посмотреть в gpdf, и с чем это может быть связано.

Вообще то я тоже думаю, что не обязательно моделировать мозг детально, надо в общих чертах смоделировать конкуренцию, инстинкт сомосохранения, изменения алгоритма или чего нибудь такого - это для модели индивидума, и дальше в таком же ключе, и мы без имитации нейронных сетей получим ИИ

argin ★★★★★
()
Ответ на: комментарий от geek

Я не знаю, почему ты решил, что я утверждал невозможность создания ИИ кроме как на нейро-основе. Если я где-то смутно выразился, сожалею. Я только говорил, что макроуровень мозга с нейронным базисом связан слабо, он мог бы быть сделан и на другом базисе. Точно так же как можно реализовать процессор (имея логическую модель) не только в транзисторном базисе.

> сознание - это прежде всего система с обратной связью. а не комок нейронов

мне кажется, ты в этом треде слушаешь себя.

aist1 ★★★
()
Ответ на: комментарий от sin_a

>А ты скажи ему как надо! Направь его. Если знаешь куда идти

я знаю куда идти точно не надо =)

не надо приписывать машине качеств, которых у неё нет и быть не может.

geek ★★★
()
Ответ на: комментарий от argin

>Вообще то я тоже думаю, что не обязательно моделировать мозг детально, надо в общих чертах смоделировать конкуренцию

???

>инстинкт сомосохранения

валяюсь

>изменения алгоритма или чего нибудь такого - это для модели индивидума, и дальше в таком же ключе, и мы без имитации нейронных сетей получим ИИ

повторюсь - для ИИ не нужен ни инстинкт самосохранения, ни либидо ни прочая психофизиологическая хрень.

geek ★★★
()
Ответ на: комментарий от aist1

>я по этому пути иду.

ты пытаешься сделать вот что:

диалог двух пионэров (А и Б): А: интересно, папино ружьё заряжено? Б: давай я в тебя прицелюсь и нажму на курок! А: что ты! а вдруг выстрелит??? Б: другого пути проверить заряжено ли ружьё нет!

;)

geek ★★★
()
Ответ на: комментарий от geek

> я знаю куда идти точно не надо =)

Эээ.. А если не знаешь куда надо, то как знаешь куда не надо? :)

Я, может, тоже думаю что либидо машине не нужно. Но если я не знаю что ей нужно - то не спешу с утверждениями. Может надо сделать ИИ, и у него самого спросить?

Отрицать - типа легче чем строить.

sin_a ★★★★★
()
Ответ на: комментарий от geek

Ты пытался когда-нибудь понять природу этих феноменов, их смысл, назначение, связь с другими феноменами?

aist1 ★★★
()
Ответ на: комментарий от aist1

как может быть кризис того чего нет? :)

sin_a ★★★★★
()
Ответ на: комментарий от aist1

>Ты проводил эксперимент, или "кажется" ?

у машины нет инстинктов, гормонов, желания всегда иметь самый вкусный кусок мяса и самую красивую самку в племени. Доступно объяснил?

geek ★★★
()
Ответ на: комментарий от aist1

>Скажи, в чем причина кризиса ИИ, по-твоему?

в попытке реализовать ИИ как симулятор человеческого мозга. Это возможно, но не при нынешнем уровне технического развития. Я уже говорил, что мегагерцев не хватит.

geek ★★★
()
Ответ на: комментарий от geek

Давай, говори уже, какая логика-то?

Чем от нынешней отличается?

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

>И что, в нынешних машинах мало логики? Где-же в них интеллект?

ещё нужен эффективный механизм работы с ассоциациями. его тоже нету. собственно, разум - это на 90% опыт. и от того, насколько эффективно происходит выборка опыта, соответствующего контексту - зависит эффективность логического аппарата.

geek ★★★
()
Ответ на: комментарий от geek

Вот видишь как хорошо. Но почему здесь неуместны нейросети? Говорят очень хороший способ работы с данными.

sin_a ★★★★★
()
Ответ на: комментарий от geek

Я так понимаю, в main.pdf ты не заглядывал. зачем тогда просил яеня рассказать о механизмах мышления? Если хочешь, я могу кратко рассказать об этом здесь. Но краткость - не всегда сестра таланта.

aist1 ★★★
()
Ответ на: комментарий от sin_a

>Вот видишь как хорошо. Но почему здесь неуместны нейросети? Говорят очень хороший способ работы с данными.

слишком медленно и неэффективно. для нормальной скорости нужны аппаратные нейросети.

кроме того, локализовать данные в нейросетях практически невозможно. т.е. использование нейросетей в качестве ассоциативной памяти тянет за собой использование нейросетей же в качестве логического аппарата. suxx

geek ★★★
()
Ответ на: комментарий от sin_a

Комбинаторный взрыв размерности сети на задачах общего вида. Борются с этим введением архитектурных эвристик. Но эти эвристики ухудшают адаптационные способности сети. Кстати, макроуровень мозга -- это как раз и есть набор таких эвристик.

Как сказал один мой знакомый спец по нейросетям, если захочешь делать свои алгоритмы в нейросетевом базисе, забудь о реализации на доступном железе.

aist1 ★★★
()
Ответ на: комментарий от geek

Ладно, тогда здесь.

Вот кусочек (сорри за латех):
"
Основным мозговым субстратом физиологических потребностей считается гипоталамус\cite{Homskaja}. Его ядра ответственны за поддержание обмена веществ в организме. Жизненный цикл всех физиологических потребностей сходен. Например, понижение уровня глюкозы в крови сопровождается раздражением ядер гипоталамуса, ответственных за мотивацию голода. Появляется ощущение беспокойства, \emph{побуждающее} к действиям --- \emph{влечение}. Побуждающая компонента -- характеристический признак всех мотивационных образований. Гипоталамус активирует фронтальную кору (и через ретикулярную формаци и таламус приводит к появлению \emph{внимания}), в результате чего пространство сознания принудительно\footnote{"Голодной куме всё хлеб на уме", "Кто о чем, а голый --- о рубахе".} заполняется "образами"\ предыдущих случаев удовлетворения данной потребности, а аналитические отделы выбирают из них тот, который в максимальной степени в текущих условиях удовлетворяет потребности.
"

aist1 ★★★
()
Ответ на: комментарий от aist1

>Я так понимаю, в main.pdf ты не заглядывал.

замечательно. много умных слов. Только вот к ИИ это всё не имеет никакого отношения =)

geek ★★★
()
Ответ на: комментарий от geek

>> Я так понимаю, в main.pdf ты не заглядывал.

> заглядывал. там очень симпатичные иероглифы =)

В смысле - не читается?

Если правильно понимаю, твоя точка в том, что машине не нужны эмоции?

sin_a ★★★★★
()
Ответ на: комментарий от aist1

У психологических потребностей механизм сходный, только управляются они не гуморально, а через ассоциативные механизмы. Все это формализуемо, алгоритмизуемо и, более того, составляет (с учетом дополнительных, не названных здесь, элементов) тьюринг-полную систему. Все пытаются делать думающую машину, а надо было сначала делать чувствующую, так как именно на этом уровне формируется новый опыт.

aist1 ★★★
()
Ответ на: комментарий от geek

Извини, но ИИ как симулятор мозга -- это как раз потыка разрешить кризис традиционного ИИ (фреймы, семантические сети, продукционные системы, нечеткая логика...).

aist1 ★★★
()
Ответ на: комментарий от sin_a

>Если правильно понимаю, твоя точка в том, что машине не нужны эмоции?

именно не нужны. Я категорически не согласен с тем, что без эмоций не может быть ИИ.

geek ★★★
()
Ответ на: комментарий от aist1

> ИИ как симулятор мозга -- это как раз потыка разрешить кризис традиционного ИИ

мне кажется что копируя не получишь хорошего результата

sin_a ★★★★★
()
Ответ на: комментарий от aist1

>Извини, но ИИ как симулятор мозга -- это как раз потыка разрешить кризис традиционного ИИ (фреймы, семантические сети, продукционные системы, нечеткая логика...).

ИИ с самого начала пытаются создать как копию человеческого мозга. семантические сети и нечеткая логика применялись в основном для создания экспертных систем, но не для создания ИИ в классическом понимании. Основная проблема - механизмы ассоциативной памяти. Нейросети - не подходят по скорости, а всё остальное - не обеспечивает должной связности и гибкости. Вот где кризис.

geek ★★★
()
Ответ на: комментарий от geek

Я готов встать на твою позицию. Я лишь утверждаю, что когнитивные эмоции имеют алгоритмический смысл -- они сигнализируют о нахождении суб-решения, а величина эмоции и её знак необходимы для выбора из суб-решений одного. Везде, где будет реализован подобный алгоритм, будет обнаружено поведение, сходное с эмоциональным поведением человека. Вот и всё.

aist1 ★★★
()
Ответ на: комментарий от geek

> именно не нужны

Я тоже считаю что эмоции ни при чем. Но полагаю что этот вопрос не принципиален. Сделаем - увидим :)

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

>мне кажется что копируя не получишь хорошего результата

ну почему же...лет через 50, на каком-нибудь MindSimulator (created by NEC) сделают модель мозга крысы...а ещё лет через 500 - и до человека доберутся

geek ★★★
()
Ответ на: комментарий от aist1

> когнитивные эмоции имеют алгоритмический смысл

кстати, скорее всего здесь терминологическая проблема

sin_a ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.