LINUX.ORG.RU

Google выпустил TensorFlow

 deepdream, ,


6

6

Корпорация Google опубликовала под лицензией Apache 2.0 систему построения нейронных сетей TensorFlow. В настоящее время опубликована лишь урезанная версия без поддержки распределенных вычислений.

TensorFlow походит на torch.ch и theano, однако отличается от них в существенных деталях.

«А потому что задолбало работать с проприетарщиной» — так коротко и ёмко прокомментировал решение открыть код основной разработчик системы Jeff Dean, широко известный как один из изобретателей MapReduce.

>>> Подробности

anonymous

Проверено: Shaman007 ()
Последнее исправление: Psych218 (всего исправлений: 1)

Ответ на: комментарий от FRWHate

То есть можно построить терминатора, который поработит мир?

anonymous
()

Что это и какие приколюхи можно сделать с этим?

Ghostwolf ★★★★★
()

В настоящее время опубликована лишь урезанная версия без поддержки распределенных вычислений.

Тогда ненужно.

weare ★★
()
Последнее исправление: weare (всего исправлений: 1)
Ответ на: комментарий от Truf

Я бы уточнил, что речь именно о глубинных нейронных сетях (обычные никому не нужны)

Пытался понять по педевикии чем же они всё-таки отличаются и не понял.
Или всё дело в волшебных пузырях способе обучения, в том самом «deep learning'е»?

WatchCat ★★★★★
()
Ответ на: комментарий от WatchCat

Глубокие сети глубокие, лол. В смысле, у них слоёв больше. В этом вся и разница.

«Deep learning» — просто маркетинговый баззворд. Дело в том, что название «нейронные сети» оказалось слегка зашкварено после AI winter. Поэтому, когда в 2000-х появилась CUDA и начался ренессанс нейросетей, придумали новый модный бренд «deep learning». Ну, чтоб инвесторы понимали, что это не старые немодный нейросети, а новые модные нейросети. У них сразу в памяти всплывает Deep Blue и всё хорошее, лол.

anonymous
()
Ответ на: комментарий от prischeyadro

Сабж - по сути вычислялка выражений. Можно построить некий граф, узлы которого являются примитивными операциями. Сабж его вычислит на CPU или на GPU. Алсо там искаропки есть примитивы для реализации нейросетей, символьное дифференцирование и градиентная оптимизация. Если ты по картинке подумал, что там типа симулинк, то оно не совсем то.

anonymous
()
Ответ на: комментарий от anonymous

Если ты по картинке подумал, что там типа симулинк, то оно не совсем то.

Примерно так я и подумал, да. Я бы сказал, что с моей точки зрения оно выглядит как Simulink, только для сильно многомерных данных.

prischeyadro ★★★☆☆
()
Ответ на: комментарий от anonymous

Воу, там есть обратные связи. Значит, и некий механизм синхронизации.

Думаю, что подойдёт.

prischeyadro ★★★☆☆
()
Ответ на: комментарий от anonymous

«Deep learning» — просто маркетинговый баззворд.

ясно.

WatchCat ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.