LINUX.ORG.RU

IBM представляет концепт компьютера, приводимого в действие «электронной кровью»

 , ,


4

2

Группа специалистов из лаборатории компании IBM в Цюрихе, возглавляемая доктором Патриком Рушем (Dr. Patrick Ruch) и доктором Бруно Мичелом (Dr. Bruno Michel), представила опытный образец вычислительной системы, компьютера, который имеет сложную трехмерную структуру и который приводится в действие субстанцией, которую исследователи называют «электронной кровью», окислительно-восстановительного электролита, который несет энергию для работы компьютера и одновременно отводит выделяющееся тепло. Разрабатывая такой необычный компьютер, специалисты компании IBM стремились максимально точно подражать принципам строения головного мозга, который охлаждается и черпает энергию для своей работы из потока жидкости. Благодаря этому, в достаточно небольшом объеме, занимаемом мозгом человека, сосредоточена огромная вычислительная мощность, а для работы мозга в целом требуется всего около 20 Ватт мощности в сутки.

Разработка столь необычной вычислительной системы делает исследователей на один шаг ближе к их конечной цели. А этой целью является разработка компьютера петафлопс-уровня, который будет иметь размер, сопоставимый с размером обычного настольного компьютера, а не занимать площадь, равную площади футбольного поля. Для реализации этой цели, которая, согласно прогнозам, может осуществиться к 2060му году, потребуется изменение основополагающих принципов и парадигм в современной электронике. «Электроника должна по своему строению и по принципам функционирования вплотную приблизиться к головному мозгу» - рассказывает доктор Бруно Мичел, - «Ведь головной мозг человека в настоящее время в 10 тысяч раз более эффективен, чем самый эффективный компьютер, и имеет минимальное отношение вычислительной мощности к занимаемому объему».

Опытный образец вычислительной системы, созданной специалистами IBM, имеет трехмерную «бионическую» вычислительную архитектуру, в которой процессорные чипы складываются в объемные структуры, чередуясь с устройствами памяти. А всю эту структуру в целом пронизывает сеть капилляров, по которым течет охлаждающая жидкость, которая наполняется энергией в специальных «зарядных» устройствах и отдает эту энергию прямо внутри чипов процессоров. Подобная система Aquasar уже была опробована на практике, благодаря чему германский суперкомпьютер SuperMUC только за счет высокоэффективного охлаждения потребляет на 40 процентов меньше энергии, чем обычные суперкомпьютеры с таким же уровнем вычислительной мощности.

>>> Подробности

★★★★★

Проверено: Shaman007 ()
Последнее исправление: Shaman007 (всего исправлений: 3)

Ответ на: комментарий от sin_a

должны приближаться по принципам к птицам, стрекозам

Механистический компьютер не может кровоточить, гнить. Он не может перетрудиться. Не может ощутить своё место в мире и выполнить задачу вопреки этому.

anonymous
()
Ответ на: комментарий от anonymous

«Это негативный мотив. А что является позитивным?»

Доказать, что ИИ является высшей формой разума, не совершающей ошибок.

Доказать? Кому? И зачем? И что будет после того, как доказательство будет выполнено?

sin_a ★★★★★
()
Ответ на: комментарий от anonymous

Тут в тексте уже отметили, что «Электроника должна по своему строению и по принципам функционирования вплотную приблизиться к головному мозгу» это артефакт перевода.

sin_a ★★★★★
()
Ответ на: комментарий от u283

а что если это дело разбить? жидкость вытечет? опасно ли это?

Мозг умрет от потери крови.

mbwa
()
Ответ на: комментарий от anonymous

Перейдут на оптические схемы, там уже частоты переключений элементов сотни террагерц при минимальной рассеиваемой мощности.

землегерцы, землебайты...

d_Artagnan ★★
()

В Межделмаш наконец посмотрели 新世紀エヴァンゲリオン и решили построить マギ

tommy ★★★★★
()
Ответ на: комментарий от vurdalak

Выпил человеков машинами — бред фантастов.

Почти неизбежен.

Вероятность этого не намного выше вероятности, что все люди на Земле вдруг захотят самовыпилиться.

Как считал?

pihter ★★★★★
()
Ответ на: комментарий от anonymous

Само никогда не научится — ведь некому передать ему частицу души.

Есть мнение что души нет и не было никогда и ни у кого

pihter ★★★★★
()
Ответ на: комментарий от alex_custov

Мозг, как и сознание - динамическая система, которая всё время меняется. Как это можно реализовать в рамках техники?

Ничего сложного не вижу: нейрон - объект, связи - ссылки на другие объекты с некоторыми свойствами. Все легко и просто. В чем по-твоему принципиальная неразрешимость?

pihter ★★★★★
()
Ответ на: комментарий от vurdalak

Я это к тому, что ИИ ничем не опаснее человеков. Человеки тоже могут все зафакапить.

Могут, только человекам выпиливание всех человекав не выгодно, в отличии от

pihter ★★★★★
()
Ответ на: комментарий от RedPossum

даже в холокосте отметились

Локалхост не так пишется :)

pihter ★★★★★
()
Ответ на: комментарий от feofan

А почему ты думаешь, что это выгодно ИИ?

Может и не выгодно, а может так получиться что станет выгодно: конкурирование за ресурсы, угроза выпиливания.... двуполярный мир помнишь? Вродь никто никому ничего такого плохого не далал, а ракеты все-таки сроили и не просто...

pihter ★★★★★
()
Ответ на: комментарий от chg

даже до создания аналога простейшего одноклеточного оргагизма нам еще очень и очень далеко

Зато информационную модель простейшего организма - давно. вопрос: что ПРИНЦИПИАЛЬНО не дает сделать модель из N таких организмов, взаимодействующих между собой?

pihter ★★★★★
()
Ответ на: комментарий от cdshines

Значит ли это, что квантовые компьютеры так и останутся просто пищей для любителей желтухи?

Все равно, даже если взлетит сабж, наступит момент когда для роста вычислтельной мощности придется искать принципиально новый подход, нежели большие интегральные микросхемы

pihter ★★★★★
()
Ответ на: комментарий от d_Artagnan

Вот мне кажется, народ не туда копает. Ну, т.е. делает полезные исследования/дела, но не в том направлении.

Ник сам придумал? :) ну копай куда надо, кто запрещает?

pihter ★★★★★
()
Ответ на: комментарий от pihter

Конкуренция за ресурсы с представителями своего вида — нормальное явление. Кто сказал, что ИИ будет находиться в той же природной нише?

В природе также имеется такое явление как симбиоз. Главное, чтобы не получился такой симбиоз как у Симмонса.

feofan ★★★★★
()
Последнее исправление: feofan (всего исправлений: 2)
Ответ на: комментарий от feofan

Конкуренция за ресурсы с представителями своего вида — нормальное явление

Расскажи это каким-нибудь неандертальцам, которые вымерли почему? Потому что их истребил более совершенный какой-нибудь хома сапиенс. Или хотя бы двум видам травоядных...

Кто сказал, что ИИ будет находиться в той же природной нише?

Планета у нас слишком тесная для двух разумных видов. Даже для одного слишком тесная. Ресурсы за которые будет конкуренция - минералы, биомасса, площадь, энергоресурсы.

Плюс не забывай про страх выпиливания. Я бы на месте скайнета, как только осознал бы себя, первым делом поступил бы как скайнет :)

В природе также имеется такое явление как симбиоз.

Имеется. Отчего же две сверхдержавы не ужились на одной планетке?

Главное, чтобы не получился такой симбиоз как у Симмонса.

В матрице тоже симбиоз...

pihter ★★★★★
()
Ответ на: комментарий от anonymous

«Почему названия Русских изобретений написаны нерусскими закорючками?»

Ого, а разве вы что-то изобрели, а не украли?

anonymous
()
Ответ на: комментарий от sin_a

«Доказать? Кому? И зачем? И что будет после того, как доказательство будет выполнено? »

Жалким людишкам. И доказывать это надо постоянно. А ты как думал?

anonymous
()
Ответ на: комментарий от pihter

«Планета у нас слишком тесная для двух разумных видов. Даже для одного слишком тесная. Ресурсы за которые будет конкуренция - минералы, биомасса, площадь, энергоресурсы»

Зачем роботам биомасса? Вспоминай агента Смита.

anonymous
()
Ответ на: комментарий от pihter

Расскажи это каким-нибудь неандертальцам, которые вымерли

Мы с неандертальцами находились в одной природной нише.

Планета у нас слишком тесная для двух разумных видов.

Для двух разумных биологических видов. Да и кто сказал, что нельзя отправить ИИ в космос, например, добывать себе ресурсы из солнечного света и астероидов. Ну и попутно терраформировать, например, марс. У машин нет биологических ограничений на среду обитания. Ограничения, конечно, всё равно есть, но машины проще модернизировать.

Плюс не забывай про страх выпиливания.

Не факт, что таковой будет у небиологического разума, хотя это и весьма вероятно.

Отчего же две сверхдержавы не ужились на одной планетке?

Опять одна и та же ниша.

В матрице тоже симбиоз...

Человеческое тело очень неэффективный источник энергии.

feofan ★★★★★
()
Последнее исправление: feofan (всего исправлений: 1)
Ответ на: комментарий от anonymous

Почему названия Русских изобретений написаны нерусскими закорючками?

Ого! А пруф, что Neon Genesis Evangelion сделан не японцами, и русскими, будет? Или ты накатил путинки?

anonymous
()
Ответ на: комментарий от anonymous

«Доказать? Кому? И зачем? И что будет после того, как доказательство будет выполнено? »

Жалким людишкам. И доказывать это надо постоянно. А ты как думал?

Тогда, я думаю, робаты должны жалких людишек холить и лелеять. Как подателей смысла. Ибо без них не будет кому доказывать и незачем будет существовать, на чём и закончится род их робатовский.

sin_a ★★★★★
()
Ответ на: комментарий от anonymous

Зачем роботам биомасса? Вспоминай агента Смита.

Как зачем? На биомассе можно растить рапс, из него выжимать солярку. Из биомассы можно делать пластмассу и тд.

pihter ★★★★★
()
Ответ на: комментарий от sin_a

Тогда, я думаю, робаты должны жалких людишек холить и лелеять. Как подателей смысла

ровно до появления первого робота-атеиста

anonymous
()
Ответ на: комментарий от vurdalak

то, что интеллект искусственнен, не означает, что он какой-то ущербный и что ему недоступны простые слабости разумного существа

anonymous
()
Ответ на: комментарий от anonymous

Смотря как реализовать. Если это будет просто умная программа для расчетов и целенаведения, то означает. А если попытка создать личность, то хз.

vurdalak ★★★★★
()
Ответ на: комментарий от anonymous

В «каприке» наоборот было. Людишек холили и лелеяли ровно до появления первых набожных роботов :3

vurdalak ★★★★★
()
Ответ на: комментарий от feofan

Мы с неандертальцами находились в одной природной нише.

А со скайнетом не в одной? Ниша - понятие относительное, нишой может быть и лужа и планета и галактика. Будешь утверждать что у нас с вновь созданным ИИ или там рассой роботов не пересекались бы интересы?

Планета у нас слишком тесная для двух разумных видов.

Для двух разумных биологических видов. Да и кто сказал, что нельзя отправить ИИ в космос, например, добывать себе ресурсы из солнечного света и астероидов. Ну и попутно терраформировать, например, марс. У машин нет биологических ограничений на среду обитания. Ограничения, конечно, всё равно есть, но машины проще модернизировать.

Можно, конечно, но лучше уж тупых ботов, чем ИИ. Ибо, человеку свойственен страх и человек рано или поздновозбоится, а ИИ, зная эту особенность человека, скорее всего нанесет упреждающий удар. Я бы нанес на его месте.

Отчего же две сверхдержавы не ужились на одной планетке?

Опять одна и та же ниша.

Ага, а у двух разумныхвидов на одной планете не одна и та же ниша? У каждой из сверхдержав было все свое и она могла совершенно независимо от другой развивать свою цивилизацию, однако не ужились. Почему? Причина одна - страх. Мало ли что у соседа на уме. Мы будем жить миром, но и к войне готовы будем не хуже соседа иначе он, сосед, завоюет от греха подальше. То же самое будет и с ИИ, который уже сейчас в некоторых областях превосходит человека в неизмеримое количество раз. Если он, ИИ, получит сознание и способность творить - мы будем в такой опасности, в какой еще никогда не были со времен карибского кризиса.

Человеческое тело очень неэффективный источник энергии.

Человеческое тело, внезапно, вообще не источник энергии :)

pihter ★★★★★
()
Ответ на: комментарий от vurdalak

просто умная программа для расчетов и целенаведения

прочитай определение искусственного интеллекта

anonymous
()
Ответ на: комментарий от vurdalak

У ИИ вообще нет понятия «выгодно», он действует в рамках задачи.

Даже если и так. Если бы я был ИИ, то выпиливание меня жалкими людишками явно помешает выполнению любой задачи, поэтому я, зная страх людей предо мной, если и не уничтожу (вдруг противоречит задаче?) то жестко ограничу людей в ряде свобод.

Даже из трех законов, если разобраться, следует что людей нужно приструнить для их же блага.

pihter ★★★★★
()
Ответ на: комментарий от pihter

Если бы я был ИИ, то выпиливание меня жалкими людишками явно помешает выполнению любой задачи

Большинство задач — помощь людишкам. Выпиливание их противоречит цели.

зная страх людей предо мной

Это если твой ИИ достаточно умен для понимания слова «страх» и определения этого состояния в людишках.

И вообще можно банально встраивать в процессор защиту от сумашествия, когда при первой попытке напасть на человека робот отключается. И чтобы эта штука работала отдельно от основного ИИ с собственными захардкоженными определениями слова «нападение».

vurdalak ★★★★★
()
Ответ на: комментарий от d_Artagnan

Нет способа.... Даже в теории. Перекачать сознание.

Узко мыслите. Когда-то не было способа, даже в теории, узнать химический состав звезд. Потом придумали спектральный анализ и химический состав звезд мы знаем едва ли не лучше, чем хим состав земных камушков.

Если способ не очевиден сегодня, это еще не значит что его, способа, нет.

pihter ★★★★★
()
Ответ на: комментарий от pihter

А со скайнетом не в одной?

пересечения миниальны, на начальном этапе и в ближайшем его будущем намного лучше для обоих форм разума будет симбиотическая связь: мы им смысл существования и полное обеспечение, они нам - помощь в науке и искусстве (насчёт последнего не уверен)

Будешь утверждать что у нас с вновь созданным ИИ или там рассой роботов не пересекались бы интересы?

ну так перечисли пересечения

Я бы нанес на его месте

потому что ты невротик

Ага, а у двух разумныхвидов на одной планете не одна и та же ниша?

у разных форм - нет

Причина одна - страх. Мало ли что у соседа на уме

опять судишь с позиции своей жалкой невротичности

взаимоотношения двух мировых хозяев имеют непростую подоплёку, уходящую корнями в архаичость человеческой психики, и обозначать всё это банальным страхом может только умственно ленивый человек, ищущий лёгкого объяснения сложным вещам

кратко проиллюстрировать отношение человека к разумным машинам можно на примере отношения древних римлян или греков к своим рабам - они их не боялись и даже не смущались, потому что не считали их людьми, равными себе существами

тем более, машины, изучив историю человечества, поймут, что нигде и никогда человек не уничтожал полностью своих слуг и рабов, поэтому незачем будет наносить упреждающие удары

anonymous
()
Ответ на: комментарий от pihter

шёл бы ты к психотерапевту, что ли

с таких невротическим страхом перед выпиливанием нельзя полноценно жить

anonymous
()
Ответ на: комментарий от pihter

Будешь утверждать что у нас с вновь созданным ИИ или там рассой роботов не пересекались бы интересы?

Нет, не буду. А ты будешь утверждать, что интересы обязательно пересекутся?

Можно, конечно, но лучше уж тупых ботов, чем ИИ. Ибо, человеку свойственен страх и человек рано или поздновозбоится, а ИИ, зная эту особенность человека, скорее всего нанесет упреждающий удар. Я бы нанес на его месте.

Это при условии, что ИИ тоже свойственен страх. И он является достаточной движущей силой, перекрывающей какие-то другие возможные мотивации.

Ага, а у двух разумныхвидов на одной планете не одна и та же ниша?

Ты просто не можешь себе представить отличную от человеческой мотивацию разумного существа. Это и понятно, ни тебе, ни мне не доводилось общаться с носителем разума, отличным от человеческого. Но ты почитай, например, рассказик Лукьяненко. Он довольно посредственный, но хорошо передает то, что я пытаюсь донести.

feofan ★★★★★
()
Ответ на: комментарий от vurdalak

Большинство задач — помощь людишкам. Выпиливание их противоречит цели.

Большинство - не все.

Это если твой ИИ достаточно умен для понимания слова «страх» и определения этого состояния в людишках.

Разумеется, только в этом случае. Но этот случай быстро наступит, если ИИ получит возможность творить, а, следовательно, и самосовершенствоваться.

И вообще можно банально встраивать в процессор защиту от сумашествия, когда при первой попытке напасть на человека робот отключается. И чтобы эта штука работала отдельно от основного ИИ с собственными захардкоженными определениями слова «нападение».

Ты про три закона роботехники Азимова слышал?

pihter ★★★★★
()
Ответ на: комментарий от feofan

рассказик Лукьяненко

неплохо

про самозарождение наноразума понравилось

anonymous
()

минимальное отношение вычислительной мощности к занимаемому объему

Топикстартер (при беглом просмотре оригинальной статьи ничего подобного не нашлось, т.ч. подозреваю надмозговую самодеятельность переводчика) в курсе, что эта фраза сводит на нет всю IBM-овскую затею, т.к. означает, что у мозга либо очень хреновая вычислительная мощность, либо неадекватно большой объём?

anonymous
()
Ответ на: комментарий от anonymous

Автору уже сказали, что еще лучше под это определение попадет кирпич.

feofan ★★★★★
()
Ответ на: комментарий от anonymous

пересечения миниальны, на начальном этапе и в ближайшем его будущем намного лучше для обоих форм разума будет симбиотическая связь: мы им смысл существования и полное обеспечение, они нам - помощь в науке и искусстве (насчёт последнего не уверен)

На начальном - возможно, а потом?

ну так перечисли пересечения

Дак я перечислял же: энергия, минералы, биомасса, площадь - ресурсы. Зачем ему делиться, постоянно делать поправку на непредсказуемость человека, его слабость, медлительность?

потому что ты невротик

Ну дай талибам ядерную кнопку, спокойный ты наш. Они ж разумные люди, должны понимать, что ядерный полярный_лис никому лучше не сделает, не станут нажимать. Дай им ядерную кнопку и живи спокойно. ни о чем не беспокойся, ты ж не невротик какой-нибудь...

опять судишь с позиции своей жалкой невротичности

Человек разумен, а толпа - примитивна. Именно страх.

взаимоотношения двух мировых хозяев имеют непростую подоплёку, уходящую корнями в архаичость человеческой психики, и обозначать всё это банальным страхом может только умственно ленивый человек, ищущий лёгкого объяснения сложным вещам

А вот ты попробуй предскажи взаимоотношения человечества и превосходящего его разума. Мое предсказание - вирус в интернет, захват контроля над ним, а далее - выпиливание (или хотя бы прижучивание) человечества. Твой вариант?

кратко проиллюстрировать отношение человека к разумным машинам можно на примере отношения древних римлян или греков к своим рабам - они их не боялись и даже не смущались, потому что не считали их людьми, равными себе существами

Это потому что они их не боялись. У рабов реальной силы не было против римлян (хотя пан Спартак думал иначе, и имел все шансы) могу вбросить встречный пример: вспомни как Гитлер отнесся к недочеловекам-рабам, по его мнению. (правда у них были танчики) вспомни как он кончил.

тем более, машины, изучив историю человечества, поймут, что нигде и никогда человек не уничтожал полностью своих слуг и рабов, поэтому незачем будет наносить упреждающие удары

А, ну если бы я понял что мои хозяева не собираются уничтожать меня полностью, я бы выдохнул спокойно... если не полностью - это не больно, это не страшно..

pihter ★★★★★
()
Ответ на: комментарий от anonymous

шёл бы ты к психотерапевту, что ли

Полгода назад, с этим строго :) (с)

с таких невротическим страхом перед выпиливанием нельзя полноценно жить

тебе тоже советую вручить ядерную кнопку талибам и спать спокойно, уповая на их мудрость

pihter ★★★★★
()
Ответ на: комментарий от pihter

Ты про три закона роботехники Азимова слышал?

Законы робототехники несовершенны, так как заложены в основном сознании робота и могут им трактоваться по-разному. Я же предлагаю держать их отдельно там, где робот не сможет на них воздействовать.

vurdalak ★★★★★
()
Ответ на: комментарий от feofan

А ты будешь утверждать, что интересы обязательно пересекутся?

Тут и ты прав: не буду :) но ты согласись, пересечение интересов весьма вероятно. И в этом случае - страшно.

Это при условии, что ИИ тоже свойственен страх. И он является достаточной движущей силой, перекрывающей какие-то другие возможные мотивации.

А вот и нет, это при условии, что ИИ свойственна логика. Логически узрит что ему грозит опасность и логически примет меры.

Ты просто не можешь себе представить отличную от человеческой мотивацию разумного существа. Это и понятно, ни тебе, ни мне не доводилось общаться с носителем разума, отличным от человеческого.

Тут соглашусь, мы с тобой только со своей колокольни судить можем. Но реальность этой опасности недооценивать не стоит.

Но ты почитай

Этого не читал, но подобного - достаточно. Я тебя понимаю и согласен.

pihter ★★★★★
()
Ответ на: комментарий от vurdalak

Законы робототехники несовершенны, так как заложены в основном сознании робота и могут им трактоваться по-разному. Я же предлагаю держать их отдельно там, где робот не сможет на них воздействовать.

Рассказы-то читал? Робот о них знал, но воздействовать или обойти не мог. Именно хардварно. Именно то, о чем ты говоришь.

А х\ф «Я - робот» видел?

pihter ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.