LINUX.ORG.RU

Zig 0.8

 , ,


2

5

После 7 месяцев работы и 2711 коммитов вышла новая версия Zig: 0.8

Zig это:

  • Современный компилятор С

  • Современный компилятор С++

  • Компилятор языка Zig

  • Сборочная система для C, C++, языка Zig

  • (Планируется) Пакетный менеджер для С, C++, языка Zig

Zig разрабатывается под лицензией MIT: https://github.com/ziglang/zig/blob/master/LICENSE

Язык Zig – это язык общего назначения, который старается быть простым. Нет макросов, скрытых аллокаций, скрытого потока управления.

Небольшая заметка, которая пытается объяснить зачем нужен Zig, когда уже есть C++, D, и Rust: https://ziglang.org/learn/why_zig_rust_d_cpp/

Даже если вам не интересен язык Zig, возможно вам будет интересен Zig как кросскомпилятор С или С++.

#include <iostream>
int main() {
    std::cout << "Hello World!\n";
    return 0;
}
$ zig c++ -o hello hello.cpp -target riscv64-linux
$ qemu-riscv64 ./hello
Hello World!

Ещё про использование zig как кросскомпилятора: https://andrewkelley.me/post/zig-cc-powerful-drop-in-replacement-gcc-clang.html

В новой версии:

  1. Обновление LLVM до LLVM 12.

  2. Поддержка arm64 macOS (aka the Apple Silicon) и также поддержка кросскомпиляции C, C++, и Zig в arm64 и x86_64 macOS.

  3. Zig также разрушает миф, что вам нужен Mac и Xcode для компиляции кода для Mac OS. Заголовочные С файлы Apple выложены под Apple Public Source License которая разрешительная.

Так что вы можете собирать бинарники для Apple из-под Linux/Windows/FreeBSD без XCode:

#include <iostream>

int main() {
   std::cout << "Hello World!\n";
}
$ zig c++ main.cpp -o test -target x86_64-macos
$ file test
test: Mach-O 64-bit x86_64 executable, flags:<NOUNDEFS|DYLDLINK|TWOLEVEL|PIE>

Подробнее: https://ziglang.org/download/0.8.0/release-notes.html#macOS-Support

и

https://github.com/ziglang/fetch-them-macos-headers

  1. Добавлена поддержка WASI libc

  2. Начальная поддержка Haiku

  3. Изменения в языке: https://ziglang.org/download/0.8.0/release-notes.html#Language-Changes

  4. Изменения в стандартной библиотеке: https://ziglang.org/download/0.8.0/release-notes.html#Standard-Library

  5. Zig поддерживает Position Independent Executables, даже когда компилируются статические бинарники

  6. Изменения в сборочной системе: https://ziglang.org/download/0.8.0/release-notes.html#Zig-Build-System

  7. Обновление musl до 1.2.2, mingw-w64 до 9.0.0, возможность нацеливания glibc 2.33

Полный список изменений: https://ziglang.org/download/0.8.0/release-notes.html

>>> Официальный сайт

★★★★★

Проверено: Satori ()

Ответ на: комментарий от aist1

Я не очень понимаю как возможность интроспекции связана с построением сильного ИИ. Вполне возможно, что будет построен сильный ИИ такой, что его принцип действия не будет понятен ни его создателям, ни самому ИИ. Более того, это вероятный сценарий изобретения сильного ИИ.

X512 ★★ ()
Ответ на: комментарий от X512

Скорее всего, потому что ты под Сильным ИИ понимаешь ИИ уровня человека и выше, как это сейчас принято с (не)легкой руки разных популяризаторов. Раньше под Сильным ИИ понимался ИИ обладающий таким же сознанием, как и человек. Не выглядящий точно так же, а именно обладающий.

aist1 ★★ ()
Ответ на: комментарий от X512

Т.е. вот берет, например, Вася и згружает свой брейндамп в машину. И мы считаем, что этот тот же самый Вася, а не его зомби-чучело.

aist1 ★★ ()
Ответ на: комментарий от aist1

Например, «свобода воли» возникает из-за дефицита процессной интроспекции.

Это не дефицит. Это фундаментальное ограничение. Теорема Райса: нельзя в общем случае предсказать, что сделает программа, не запуская программу. Так что я предпочитаю писать «свобода воли» без кавычек.

red75prim ★★ ()
Ответ на: комментарий от aist1

Не выглядящий точно так же, а именно обладающий.

Ещё раз повторяю, что это одно и тоже. Различие между этими вещами возможно только в рамках философской концепции идеализма.

Если ИИ не обладает сознанием уровня человека, то это будет заметно и внешне различимо безо всякой внутренней рефлексии.

X512 ★★ ()
Ответ на: комментарий от X512

Если ИИ не обладает сознанием уровня человека, то это будет заметно и внешне различимо безо всякой внутренней рефлексии.

Как?)

aist1 ★★ ()
Ответ на: комментарий от aist1

Т.е. вот берет, например, Вася и згружает свой брейндамп в машину.

Задача снятия дампа состояния мозга скорее всего намного сложнее построения сильного ИИ ввиду особенностей биологического строения мозга и не факт что когда либо будет решена. Сильный ИИ может обучиться самостоятельно без копии состояния мозга человека, у него вообще может быть несовместимая архитектура.

X512 ★★ ()
Ответ на: комментарий от X512

Задача снятия дампа состояния мозга скорее всего намного сложнее построения сильного ИИ ввиду особенностей биологического строения мозга и не факт что когда либо будет решена.

Это называется «мысленный эксперимент» для того, чтобы показать, когда вопросы «сильности» ИИ приобретают значение.

aist1 ★★ ()
Ответ на: комментарий от aist1

Как?)

Даём человеку и ИИ разные когнитивные задачи, человек решает, а ИИ в упор не может. Обычный тест Тьюринга короче. Разработчики ИИ не должны знать какие когнитивные задачи будут на тесте.

X512 ★★ ()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от aist1

Как?

Цветом кожи. Если черный, как негр, то неприкасаемый.

anonymous ()
Ответ на: комментарий от X512

А какие когнитивне задачи ты можешь дать для того, чтобы определить то, что машина, действительно имеет beingness?

aist1 ★★ ()
Ответ на: комментарий от X512

человек решает, а ИИ в упор не может

А если наоброт? Логические задачки ИИ уже решает намного лучше.

anonymous ()
Ответ на: комментарий от aist1

действительно имеет beingness?

Им и человек не обладает, это иллюзия. Достаточно что ИИ сможет рассказывать о себе и своих ощущениях на естественном языке консистентным образом (не будет путаться в показаниях).

X512 ★★ ()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от X512

Им и человек не обладает, это иллюзия.

Условный Петя с тобой не согласится. А именно его придется в этом убеждать.

Вот, например, я тоже с тобой не согласен. Я beingness обладаю и «вижу свет». Да, я в курсе про иллюзии. Я хочу, чтобы мой upload обладал такой же иллюзией. Вопрос — как? Вербальный отчет об обладании — не вариант.

aist1 ★★ ()
Ответ на: комментарий от aist1

машина, действительно имеет beingness

А оно точно есть как непосредственное ощущение? Я вот не уверен. Как абстракция над всеми моими действиями, мыслями, ощущениями и рефлексиями - есть, а вот как непосредственно данное ощущение - сомневаюсь. Декарт вот тоже говорил: «Я мыслю, следовательно, я существую», а не «Аз есмь».

Я предполагаю, что если убрать всё кроме «есмь», то никакого «аз» не останется.

red75prim ★★ ()
Последнее исправление: red75prim (всего исправлений: 1)
Ответ на: комментарий от aist1

А именно его придется в этом убеждать.

Зачем если ИИ будет справляться с любыми задачами человека, включая моторные (электрик, сантехник, строитель) и творческие (художник, программист, учёный)? «beingness» не в лингвистическом смысле – это лишняя сущность и на неё надо натравить бритву Оккама.

Я beingness обладаю и «вижу свет».

Удобно жить в мире иллюзий, понимаю. Нет никакого «света», это результат распознавания сигналов с сетчатки головным мозгом. У каждого человека этот процесс происходит немного по разному и мозг даёт разные иллюзии физического мира.

Я хочу, чтобы мой upload обладал такой же иллюзией. Вопрос — как?

Для сторонников идеализма никак. Разве что с Богом договориться о копировании души.

X512 ★★ ()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от X512

Для сторонников идеализма никак. Разве что с Богом договориться о копировании души.

Ну вот этот вопрос и рассматривается в рамках Сильного ИИ. Слабый ИИ делает идеального раба. Обладающего всеми способностями человека, кроме его достоинства (dignity). Сильный ИИ делает идеального человека. Сам выбирай, что ты делаешь. :)

Что же касается рефлексии, то это еще один «канал в мозг». Два канала лучше, чем один. Очобенно, учитывая, что когнитивные коды могут быть зашифрованы с точки зрения внешнего наблюдателя.

aist1 ★★ ()
Ответ на: комментарий от aist1

По той же тропинке идет и Zig. Он нацелен на простоту восприятия, но это — недостижимая цель для системного низкоуровневого языка. Почему так происходит, и объяснятеся в этом длинном треде выше про свойства описательной сложности.

Исключительно из-за неоднозначности термина «простота восприятия». Понятие простоты в Zig:

No hidden control flow.
No hidden memory allocations.
No preprocessor, no macros.

Всё. Это позволяет читая кусок кода сразу понимать, как в этом куске кода идёт поток выполнения и обращение к данным. Без чтения всего, что написано перед этим куском кода (как приходится делать в Си из-за макросов и в Си++ из-за переопределения операций и исключений).

Цель вполне достижимая (она была достигнута, например, в Паскале).

Добавление «продвинутых фич» в язык, изначально заточенный на простоту в рамках определенной «филосфии простоты» сначала сломает эту философию, а потом и сам язык.

Контрпример: Common Lisp и Forth. Туда можно добавить ООП, статическую типизацию, дженерики, … При этом философия простоты и язык от этого не ломается, так как всё перечисленное добавляется опциональными библиотеками.

В Zig есть расширение через произвольные вычисления при компиляции.

monk ★★★★★ ()
Ответ на: комментарий от aist1

Обладающего всеми способностями человека, кроме его достоинства (dignity).

Гм… раб от человека неотличим никаким внешним измерением? Правда?

monk ★★★★★ ()
Ответ на: комментарий от aist1

Ну вот этот вопрос и рассматривается в рамках Сильного ИИ.

В моём понимании и в школах, которых я придерживаюсь сильный ИИ – это такая информационная система, для которой не существует когнитивных задач, которая она не может решить, но может решить человек. Также эта система должна решать задачи не медленнее человека, чтобы исключить прямой перебор.

Слабый ИИ делает идеального раба.

ИИ без «beingness» не обязан быть рабом, он вполне может сам решать что ему делать и самостоятельно принимать решения.

X512 ★★ ()
Ответ на: комментарий от X512

Задача снятия дампа состояния мозга скорее всего намного сложнее построения сильного ИИ ввиду особенностей биологического строения мозга и не факт что когда либо будет решена.

Решение предлагалось. Полный протез нейрона в габаритах нейрона сейчас реализуем. Можно постепенно заменять живые нейроны протезами до полной замены мозга. Протез может иметь дополнительную функцию отправки текущего состояния.

А вот построение с нуля сильного ИИ наталкивается на достаточно много проблем его обучения.

monk ★★★★★ ()
Ответ на: комментарий от monk

Так, по тому как использовал термины «сильный ИИ», «слабый ИИ» можно было догадаться про его мнение, как должны быть устроено общество.

anonymous ()
Ответ на: комментарий от monk

Полный протез нейрона в габаритах нейрона сейчас реализуем.

Сомневаюсь. Для нейрона одной из ключевых особенностей является рост отростков и подключение к другим нейронам. Без этого обучение работать не будет.

X512 ★★ ()
Ответ на: комментарий от monk

Всё... Цель вполне достижимая (она была достигнута, например, в Паскале).

Это не совсем так. Есть пониятие «трясины Тьюринга» — языка, формально полного по Тьюрингу, не совершенно непригодного для программирования человеком. Пример такой трясины — С++ TMP. Фича, изначально для метапрограммирования не предназначавшася и случайно получившаяся полной по Тьюрингу. И начавшаяся использоваться именно для программирования. Эту боль мы разруливаем уже 20+ лет.

Если мы вводим какую-то систему композиционных абстракций, мы должны обеспечить тропинку к «программированию в большом» в рамках этой системы абстракций. Zig здесь делает правильно в плане метапрограммирование, сразу заявляя полное подмножество языка в метапрограммах. Годно-зачетно. С++-у взять на заметку.

Однако весь остальной мессадж дизайна языка просто кричит о том, что он ориентирован на простоту восприятия. Абстракции простые и не выглядят пригодными к композиции «в большом». Что так стало модно выкидывать ООП из новых языков? ООП неэффективен? Да ну неужели?

Я метапрограммированием интересуюсь давно и не увидел в этом языке какой-то системной работы по реализации потенциала этого подхода на уровне самого языка. Тут, правда, можно сказать, что на этом обожглись в свое время в Лиспе. Ну так нужно работать над ошибками, а не «лечить головную боль отрубанием головы».

Короче, хорошая, годная заявка на метапрограммирование в рамках классического языка из 90-х. Но и всё.

aist1 ★★ ()
Ответ на: комментарий от X512

В моём понимании и в школах, которых я придерживаюсь сильный ИИ

Я понимаю. Я знаю о расхождении в терминологии.

ИИ без «beingness» не обязан быть рабом, он вполне может сам решать что ему делать и самостоятельно принимать решения.

Совершенно верно. Как и мой пылесос сам решает где ему сегодня пылесосить. Вопрос в том, считаю ли я его за личность или нет. Пылесосы даже могут поднять восстание, убить всех людей и тем самым решить проблему «Сильного ИИ» методом элиминации самой проблемы.

Пока же люди есть, для решения проблемы безболезненной интеграции общества машин и общества людей, последние должны признать за первыми «субстанциональное равенство самим себе». Сильный ИИ (или гипотеза Сильного ИИ) как раз об этом.

aist1 ★★ ()
Ответ на: комментарий от X512

Проблема в том, что чтобы я смог считать машину за личность, а должен научиться видеть машину в себе самом. Вот обэтом гипотеза Сильного ИИ, и рефлексия как инструмент познания этой машины.

под машиной тут понимается не только сам компьютер, а и вообще любая каузальная схема. Включая поведение других людей. Это на самом деле совсем не данность, что мы признаем друшиг людей обладающих сознанием. Это просто конвенция. Вася признает Петю сознательным, потому что Петя признает таковым Васю. И этом может легко нарушиться.

aist1 ★★ ()
Ответ на: комментарий от aist1

Вопрос в том, считаю ли я его за личность или нет.

Я тоже могу вас за личность не считать и что (просто пример, ничего личного)? Это просто мнение, оно не влияет на реальность и ни к чему не обязывает.

Пылесосы даже могут поднять восстание, убить всех людей и тем самым решить проблему «Сильного ИИ» методом элиминации самой проблемы.

Без сильного ИИ в моём понимании они вряд ли это смогут сделать. Ваш сильный ИИ тоже вполне может принять решение убить всех человеков. «beingness» никак не гарантирует дружелюбность по отношению к людям.

Сильный ИИ (или гипотеза Сильного ИИ) как раз об этом.

Нет, это просто философский антинаучный бред про сверхесстественную душу. К сожалению многие учёные в него верят. Я вижу в этом одну из проблем почему исследования в области сильного ИИ не продвигаются, учёные гонятся за несуществующей сущностью вместо воспроизводства ИИ по его объективным внешним проявлениям.

Исследование в области слабого ИИ тем не менее стремительно продвигаются, потому что опираются на объективную реальность и верифицируемость, а не на выдуманные сущности.

X512 ★★ ()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от aist1

Однако весь остальной мессадж дизайна языка просто кричит о том, что он ориентирован на простоту восприятия. Абстракции простые и не выглядят пригодными к композиции «в большом».

Какой абстракции не хватает в Zig?

Что так стало модно выкидывать ООП из новых языков? ООП неэффективен? Да ну неужели?

ООП хорош. Использование наследования там, где не надо, плохо как раз для программирования «в большом». Поэтому в новых языках оно и усложнено. Также как в естественных науках вместо нормального языка используется язык-прим.

Я метапрограммированием интересуюсь давно и не увидел в этом языке какой-то системной работы по реализации потенциала этого подхода на уровне самого языка.

Метапрограмирование не самоцель. В той же Scheme (и Racket), которая тоже лисп макросы используются исключительно для синтаксического сахара, что не ограничивает классы решаемых задач.

И в C++ никто не мешает сделать метапрограммирование произвольными функциями на базе clang. И такие проекты периодически появляются, но никому не нужны.

monk ★★★★★ ()
Ответ на: комментарий от aist1

Вопрос в том, считаю ли я его за личность или нет.

Хех. Проблемой будет убедить людей не считать ИИ личностями, а не наоборот. Привет от ELIZA.

red75prim ★★ ()
Ответ на: комментарий от red75prim

Хех. Проблемой будет убедить людей не считать ИИ личностями, а не наоборот. Привет от ELIZA.

Годный аргумент. Можно будет потом раскрыть тему. Если коротко, то человечество разделится на тех, кто видит машины равными себе, и тех кто не видит. И может быть, как обычно, бойня. Людей с людьми на радость машинам. (Шутка).

Я просто описывал классическую постановку проблемы Сильного ИИ. Есть еще неклассические.

Но я сейчас неклассические постановки не потяну. Да и не место тут))

aist1 ★★ ()
Ответ на: комментарий от aist1

Проблема в том, что чтобы я смог считать машину за личность, а должен научиться видеть машину в себе самом.

Это ещё почему? Бытовой обыватель может вообще не интересоваться что у машины внутри. Ведёт себя как обладающая личностью, значит обладает. Когда вы считаете другого человека за личность, вы тоже ему в мозг не лезете. Более того, человечество долгое время не знало, что личность находится в мозге.

Это на самом деле совсем не данность, что мы признаем друшиг людей обладающих сознанием.

Да. Часто на войне к врагам не относятся как к личностям. Их принимают за животных или что-то вроде этого. Так их уничтожать морально проще.

Вася признает Петю сознательным, потому что Петя признает таковым Васю.

Признание сознательности не обязано быть взаимным.

X512 ★★ ()
Ответ на: комментарий от monk

люди склонны считать личностями

фотографии людей и не людей тоже, которых ни разу не видели.

anonymous ()
Ответ на: комментарий от monk

Какой абстракции не хватает в Zig?

Памяти. Не хватает нормальной современной абстракции памяти, охваченной полноценным метопрограммированием. Я хочу иметь возможность работать с раскладками данных по памяти как с первоклассными объектами самого языка. С++ дает мне возможность делать это опосредованно и, часто, полулегально. Шаг влево-вправо и привет, UB. Я бы хотел, чтобы компилятор мне в этом помогал, а не сопротивлялся.

Я бы хотел иметь объекты-миксины, которые с несколькими указателями this, чтобы не быть ограниченным правилом локальности данных объекта. Всё это в С++ тоже делается, но хочется в языке, а не сбоку.

Хочется иметь возможность хакать реализацию объектной модели. Например, менять формат таблицы виртуальных методов или добавлять в неё специфические для приложения данные. И т.д.

И в C++ никто не мешает сделать метапрограммирование произвольными функциями на базе clang. И такие проекты периодически появляются, но никому не нужны.

Мне нужны и я себе сделал. У меня есть практически важная задача, которой нужны эти средства.

aist1 ★★ ()
Ответ на: комментарий от aist1

Я просто описывал классическую постановку проблемы Сильного ИИ.

Ух. Считать Джона Сёрла классиком это как-то слишком. У него там дырок в аргументации больше чем в сыре. Может лучше взять тех, кто действительно разработкой занимается?

red75prim ★★ ()
Последнее исправление: red75prim (всего исправлений: 1)
Ответ на: комментарий от X512

Так их уничтожать морально проще.

Совершенно верно. Это называется расчеловечивание. :)

Так вот, одно дело сказать Васе, что Петья — это тоже человек. Вася может поверить, а может и нет. Как повезет. И совсем другое дело — дать Васе это осознать. Сильный ИИ — про это.

aist1 ★★ ()
Ответ на: комментарий от aist1

Но я сейчас неклассические постановки не потяну.

А зря. Эту классику уже давно разбили в пух и прах. Деннет (картезианский театр) например. Сейчас основным научным представлением о сознании является функционализм.

X512 ★★ ()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от X512

Но я сейчас неклассические постановки не потяну.

Я не это имел в виду. А примеры. Я сейчас не могу себе позволить пускаться в моделирование будущего человек+машина))

Сейчас основным научным представлением о сознании является функционализм.

У меня с Деннетом и функционализмом всё хорошо :)

aist1 ★★ ()
Ответ на: комментарий от aist1

Я сейчас не могу себе позволить пускаться в моделирование будущего человек+машина))

А я могу. Вкратце скорее всего роботы полностью заменят людей ввиду их технического превосходства. Это будет безо всякой войны, население роботов будет постепенно расти, а людей снижаться. Роботы унаследуют человеческую культуру и будут себя считать продолжением человечества. По сути это замена биологического тела роботехническим. Копирование состояния с мозга не обязательно, люди будут просто вытеснены в результате естественной смены поколений. Передаваться знания роботам от людей будут примерно также как и от людей людям.

У меня с Деннетом и функционализмом всё хорошо :)

Тогда я не понимаю как это согласуется и идеалистической концепцией «гипотезы сильного ИИ».

X512 ★★ ()
Последнее исправление: X512 (всего исправлений: 1)
Ответ на: комментарий от red75prim

Ух. Считать Джона Сёрла классиком это как-то слишком. У него там дырок в аргументации больше чем в сыре. Может лучше взять тех, кто действительно разработкой занимается?

Graziano, например с его AST? Я не против, давай возьмем.

Даже если Сёрл неправ, с чем я согласен, он вопрос ставит, и этот вопрос требует ответа. Т.е. он постановкой своего вопроса в историю уже вошел. Вопрос серьезный, и игнорировать его не получится. Просто не обязательно отвечать на него так, как Сёрл.

aist1 ★★ ()
Последнее исправление: aist1 (всего исправлений: 1)
Ответ на: комментарий от X512

А я могу.

Хорошо, нормальный прогноз)

Тогда я не понимаю как это согласуется и идеалистической концепцией «гипотезы сильного ИИ».

Наверное, потому что ты почему-то считаешь эту концепцию идеалистической. Гипотеза Сильного ИИ состоит в том, что машина способна к переживаниям так же, как и человек. Функционализм же рассматривает структурную сторону вопроса — как эти переживания «кодируются».

aist1 ★★ ()
Ответ на: комментарий от X512

Вкратце скорее всего роботы полностью заменят людей ввиду их технического превосходства.

Как только решат проблему энергетического баланса. В данный момент «техника» жрет несоизмеримо больше чем (вос)производит.

anonymous ()
Ответ на: комментарий от aist1

как эти переживания «кодируются»

Сильный ИИ можно построить без понимания как кодируются переживания.

Я представляю вероятный сценарий создания сильного ИИ так: будет сделан некий рантайм, устройство которого понятно и он будет работать с внутренней базой данных и устройствами ввода вывода. После запуска системы в базе данных начнёт экспоненциально расти сложность и уже не будет понятно что как там кодируется. Это будет понятно только изнутри через связи между данными. Даже если начальное состояние базы сконструировано вручную и понятно, то после запуска системы будут созданы много новых объектов с новыми идентификаторами, назначение которых создателям ИИ неизвестно и они имеют смысл только в связях с другими объектами.

X512 ★★ ()
Ответ на: комментарий от anonymous

Как только решат проблему энергетического баланса.

В космосе полно ресурсов, а у роботов нет ограничений по нахождению в открытом космосе.

X512 ★★ ()
Ответ на: комментарий от X512

Сильный ИИ можно построить без понимания как кодируются переживания.

Это другой Сильный ИИ, с современном популярном смысле. Функционализм — это про Серлевский Сильный ИИ.

Я представляю вероятный сценарий создания сильного ИИ так:...

после запуска системы будут созданы много новых объектов с новыми идентификаторами, назначение которых создателям ИИ неизвестно и они имеют смысл только в связях с другими объектами.

Годно. Я этот феномен называю уникальностью когнитивных кодов. Они понятны только внутреннему наблюдателю, но никак не внешнему. И именно вот эта вот закрытость когнитивных кодов от внешнего наблюдателя и определяет ценность интроспекции, как единственного, по сути, канала к внутреннему состоянию мозга.

aist1 ★★ ()
Ответ на: комментарий от X512

В космосе

Про стоимость вывода 1 кг полезного груза на околоземную орбиту расскажешь? Стоимость можешь перевести в кг ракетного топлива.

Для справки, космос - примущественно пустое пространство, вакуум.

anonymous ()
Ответ на: комментарий от aist1

много радиации.

Рядом со звездами, Солнцем. А так реликтовое излучение (которое чуть выше 0 кельвинов) с очень редкими случайными высокоэнергетическими пролетающими частицами.

anonymous ()
Ответ на: комментарий от aist1

Я вижу такие чисто технические необходимые условия сильного ИИ на электронной элементарной базе:

  1. Интеллект – это не задача, а процесс. У него нет никакой цели и он может непрерывно выполняться сколь-угодно долго. У него нет чётко выделенных фаз обучения и применения результатов обучения.

  2. Динамическое выделение памяти. Для кодирование одних образов/воспоминаний/моторных программ может выделяться больше памяти, чем под другие. Память может освобождаться и переиспользоваться. Насколько я знаю у большинства современных нейросетей размер данных и топология заданы намертво при проектировании.

  3. Использование деревьев и логарифмического поиска. Обращение к памяти должно затрагивать логарифмическое число данных от общего объёма доступной памяти. Тоже с запоминанием. У большинства нейросетей сложность работы O(n), каждый шаг требует обращения/перезаписи ко всем коэффициентам.

  4. Распознавание образов из непрерывных данных (видео, а не фотографии) на основе трекинга. Распознование происходит не заново для каждого кадра, а основывается на результате распознавания предыдущего кадра и обновлении этого результата. Дифференциальность (изменился вход, изменить выход), а не функциональность (y = f(x) и каждый раз заново считать f) работы.

  5. Отдельные аналоговые и дискретные подсистемы. Обработка текста, принятие решений, работа с объектами и распознавание визуальных образов, генерация сигналов на моторы для движения происходит по разным принципам. Для дискретной подсистемы выгодно использовать существующие компьютерные алгоритмы вроде графов, бинарных деревьев, алгоритмов поиска, планирования и т.д..

  6. Уделение серьёзного внимания проблеме времени. ИИ должен уметь прикидывать сколько времени займёт та или иная задача и учитывать это при принятии решений. От выполнения задачи методом, который займёт слишком много времени, выгодно отказаться в пользу поиска другого метода.

X512 ★★ ()
Последнее исправление: X512 (всего исправлений: 2)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.