LINUX.ORG.RU

Идеальный вариант для подкроватной ИИ фермы

 


0

2

Спека:

  • Fanless cooling by Natural Airflow Technology
  • up to Core i9 9900K 8-core CPU
  • RTX 4060 or RTX A2000 graphic cards
  • Up to 128 GB RAM and 6 storage devices
  • Rich networking and I/O with support for extension cards
  • Compact 7.5 litre all aluminium housing
  • User-friendly industrial design with tool-free service
  • Wide temperature range
  • 5-year warranty

Сайт производителя

Только вот у меня никаких идей как это привезти в Великую Империю.



Последнее исправление: unclestephen (всего исправлений: 1)
Ответ на: комментарий от Aber

Для ИИ нужно много VRAM, там стыдливо умолчали об её объеме.

8 и 12 гигов соответственно, в выборе конфигурации пишут

unclestephen
() автор топика
Последнее исправление: unclestephen (всего исправлений: 1)

8-core CPU
Up to 128 GB RAM

Хлам. Разве что для самых простецких и как следствие, бесполезных, моделей...

$ 3,290.00
Intel Core i7-9700E
NVIDIA RTX 4060 8 GB
32 GB DDR4 RAM
1 TB

ОМГ, да еще и за конский оверпрайс!

Любая двуголовая Зион-сборка на 2011 раскатает этого пенсионера впятеро. А за половину этого прайса, можно наваять конфигурацию, которая сможет ворочать тот же deepseek R1 671b.

hargard ★★★
()

Для ИИ нужно много VRAM, там стыдливо умолчали об её объеме.

Причём во всех доступных gpu этого vram катастрофически мало. Т.е., такие для ИИ по оределению не подходят.

yvv1
()

Я ставлю корпусу 4+/5 за идею дизайна охлаждать CPU и GPU прямо на стенки алюминиевого корпуса.

Для ИИ надо сегодня 1Тб RAM DDR-5, а не 128 GB DDR4-2666. И это для дома дорого, за лям сборка улетает..

Ну и ускорители, видяхи с большим VRAM или спец ускорители.

anonymous
()

Только вот у меня никаких идей как это привезти в Великую Империю.

В FreeCAD нарисовать корпус под стандартные мамки, проци и видяхи и потом выфрезить с авиационного алюминия.

Радиаторы по бокам должны рассеивать TDP от CPU и GPU. Верхняя крышка корпуса решетка, и с низу по периметру решетка для создания тяги внутри корпуса, чтобы охлаждать блок питания, память, диски, саму мать.

anonymous
()
Ответ на: комментарий от Obezyan

И таких среди анонимусов все больше с каждый днем, к сожалению.

Вроде как обычно. Да и среди регистрантов не меньше, наверное. Некоторых из них можно опознать по темам с выключенными анонимными комментариями 😅

anonymous
()
Ответ на: комментарий от Obezyan

Для ИИ надо сегодня 1Тб RAM DDR-5, а не 128 GB DDR4-2666. И это для дома дорого, за лям сборка улетает..

Ну вы же написал лютый бред. Зачем сети 1Тб RAM DDR-5? Вы же буквально - идиот, прячущийся за анонимусов.

Бред несёшь ты. Какой сети? Речь идёт о обучении больших языковых моделей ИИ, а не о работе нейросетки.

Добавлю ещё требование к минимальному размеру VRAM на ускорителе в 48Gb. И таких карт стоит засунуть сколько вытянет проц и пропускная шина на мамке.

anonymous
()
Ответ на: комментарий от anonymous

Количество VRAM критично для качества ИИ. Технологии LoRA и QLoRA снижают качество.

Я не спец в ИИ но о минимуме в 48 Gb VRAM слышал. Некоторое говорят о минимуме 196Gb VRAM - для работы без любого сжатия и достижения максимальной точности.

Говорят видяхи объединяют в одну 4GPU 48Gb = 1GPU 196Gb для получения ИИ с максимальной точностью.

anonymous
()
Ответ на: комментарий от anonymous

Nvidia DGX workstation = 128gb vram

Это другое. ;)

Размер VRAM критичен для точности ИИ. Они в этой модели кажется идут путем как Apple, объединяя системную память и VRAM. 128 это системная память с которой GPU берет столько сколько захочет. Данное решение позволяет легко преодолевать минимум 48GB для обучения но не будет самим быстрым или самостоятельным.

Вообще надо бы табличку для 2025.04 составить какие минимальные требования RAM и VRAM для обучения разных больших языковых моделей с разными параметрами.

anonymous
()

Чувак тестирует deepseek-r1-671b на древнем ксеоне

https://digitalspaceport.com/500-deepseek-r1-671b-local-ai-server/

Больше токена в секунду инференс получается на ЦПУ. Что совсем неплохо. Что говорит о том, что БЯМ для инференса gpu нафик не нужен. Нужно много памяти, желательно побыстрее.

yvv1
()
Ответ на: комментарий от anonymous

Бред несёшь ты. Какой сети? Речь идёт о обучении больших языковых моделей ИИ, а не о работе нейросетки.

Вот-вот, классически идиот прячущийся под анонимусом. Обучать большую языковую модель на ОЗУ вы будете до второго пришествия.

Добавлю ещё требование к минимальному размеру VRAM на ускорителе в 48Gb.

Погуглили и поняли что попали в просак, поэтому и добавили. «Знаток», кек.

Obezyan
()
Ответ на: комментарий от anonymous

Для серьезных, больших моделей используют связки из Nvidia A100/H100 у которых 96Gb VRAM, но их связка стоит дороже квартиры.

Говорят видяхи объединяют в одну 4GPU 48Gb = 1GPU 196Gb для получения ИИ с максимальной точностью.

Не видел такого. Обычно берут одну A6000 48Gb, если нужно больше, берут H100/A100 96Gb. Все что больше - арендуют мощности тк экономически не выгодно брать для себя. Т.е. моя A6000 уже окупила себя, а связка из H100/А100 окупалась бы еще очень долго.

Obezyan
()
Ответ на: комментарий от anonymous

Сборка для обучения больших языковых моделей (если не грид сеть на куче компов, кстати а есть что-то по этой теме из софта у нас, условный хадуп и его инфраструктура они тоже быстро упираются в головной узел. Как бы легче, но масштабирование всё равно не очень хорошее) это лямов 15 долларов минималочка прямо и из США ты её фиг вывезешь, т.к. нужный gpu к вывозу запрещён.

peregrine ★★★★★
()
Последнее исправление: peregrine (всего исправлений: 1)
Ответ на: комментарий от rupert

Предлагаю кровать сделать алюминевой И всю утыкать процами и видяхами. Хм! Это же идея! Срочно бегу патентовать такой формфактор для крипто-ИИ серверов! Никому не копировать!!! Вот только название для них?

Ещё вариант - многоэтажные кровати. В бараках для гэстарбайтеров. Можно и денег заработать и на отоплении сэкономить.

R_He_Po6oT ★★★★★
()

$3k

А зачем это покупать? На эти деньги можно платить $10 подписку 300 месяцев. Ну подписка может быть и дороже, но все равно хватит надолго. Что-то поменялось, взял, отменил, и никому не нужно впаривать устаревшее корыто. Так в чем смысл для домашнего пользования, там же не нужно генерировать тексты в промышленных масштабах?

goingUp ★★★★★
()
Последнее исправление: goingUp (всего исправлений: 1)