LINUX.ORG.RU

NVIDIA отказалась от проприетарной лицензии для Tile IR

 ,

NVIDIA отказалась от проприетарной лицензии для Tile IR

0

2

В качестве рождественского подарка сообществу открытого программного обеспечения NVIDIA сделала открытым промежуточное представление CUDA Tile IR, отказавшись от проприетарной лицензии.

Ранее в декабре, вместе с выходом CUDA 13.1, компания представила программную модель CUDA Tile, назвав её «крупнейшим и наиболее масштабным обновлением платформы CUDA с момента её создания два десятилетия назад». Теперь промежуточное представление (IR) этой технологии стало открытым.

CUDA Tile IR основано на MLIR (Multi-Level Intermediate Representation) — промежуточном представлении из проекта LLVM. Это обстоятельство весьма значимо и может способствовать поддержке CUDA Tile IR в средах, не связанных с NVIDIA. AMD в той или иной степени использует MLIR в своих решениях для ИИ и вычислений, Google IREE играет важную роль в кросс-вендорных сценариях, Intel имеет собственный диалект MLIR для своего оборудования. Существуют и различные IR-фреймворки: ONNX-MLIR, MLIR-AIE, Torch-MLIR и другие. Благодаря тому, что CUDA Tile IR базируется на MLIR, появляется возможность адаптировать его для других GPU и ускорителей. Как минимум открытый исходный код поможет таким проектам, как ZLUDA.

Открытый код CUDA Tile включает диалект Tile MLIR, привязки к Python API, байткодовое представление и набор тестов на соответствие. CUDA Tile IR представляет собой инфраструктуру компилятора на базе MLIR для оптимизации CUDA-ядер с фокусом на тайловых (блочных) вычислительных паттернах и оптимизациях для тензорных ядер NVIDIA. Проект предоставляет комплексную экосистему для выражения и оптимизации тайловых вычислений на GPU NVIDIA, упрощая разработку высокопроизводительных CUDA-ядер благодаря абстракциям для типовых паттернов разбиения на блоки, управления иерархией памяти и GPU-специфичных оптимизаций.

Исходный код опубликован на GitHub под лицензией Apache 2.0.

>>> Подробности

★★★★★

Проверено: hobbit ()
Последнее исправление: hobbit (всего исправлений: 2)
Ответ на: комментарий от avgust23

Да вроде бы у всех по пять…

Деби

ИИшные картинки
    экран покажет ваш,   
ИИшные картинки   
    в журнале
        "Мас-са-ракш"!   
Пара-ра-ра-пам-пам!   
В журнале "Массаракш"!   
Пара-ра-ра-пам!
Фюйть!
dataman ★★★★★
()

Это очень круто) Но у меня ваще встройка на основном:) Для всего хватает даже монтаж видео)

REDDERa
()
Ответ на: комментарий от REDDERa

И вообще что нормальный юзер Линукс говорит nvidia? Правильно fuck nvidia🖕🏻

REDDERa
()
Ответ на: комментарий от avgust23

Бородатый смуглый мужик слева, правая рука.

Ну у него полидактилия, же ну :) У доктора Лектера по лору «Молчания ягнят» тоже была.

slackwarrior ★★★★★
()
Ответ на: комментарий от ox55ff

Связано, многолетним отказом компании сотрудничать с сообществом Open Source и предоставлять документацию для разработки открытых драйверов.

Вместо использования общепринятых в Linux интерфейсов для переключения графики Optimus NVIDIA продвигает собственные закрытые решения EGLStreams, которые часто несовместимы с другими компонентами системы.

NVIDIA активно продавала чипы Tegra для устройств на базе Android (основанном на Linux), но при этом отказывалась помогать в разработке ядра для этой платформы.

REDDERa
()
Ответ на: комментарий от One

Позволит участвовать в Multi-Silicon AI вариантах инфраструктурах.

ИИ на оборудовании нескольких поставщиков вперемешку? Какая выгода в этом Nvidia, если они — лучшие? Ожидают, что потеряют первое место?

question4 ★★★★★
()
Ответ на: комментарий от question4

Сейчас половое разнообразие появляется от разных поставщиков, особенно от гугла и чуть-чуть от АМД. И у крупных - типа мелкософт и опенаи

One ★★★★★
()

Картинка другая должна быть. Надсмотрщик с плёткой, а на горизонте галера.

seiken ★★★★★
()
Ответ на: комментарий от question4

Google вышла на рынок со своим TPM.

Можно подробнее?

Могу чуть-чуть рассказать. Google долгое время разрабатывала свои TPM ускорители для обучения для, так сказать внутреннего использования. Пару месяцев назад она приняла решение о выходе на рынок ускорителей, раскрыла архитектуру, опубликовала характеристики производительности. Вот тут то Nvidia и забзд занервничала. До этого она вела себя нагло, API использования tensor cores не раскрывала, типа используй cuBLAS, там есть всё, что тебе нужно. Поднажал конкурент откуда не ждали, пришлось открывать как всегда под видом «мы - друзья открытых решений». На самом деле, одна из самых мерзких контор для Open source и никогда ничего по доброй воле не откроет, пока за жопу не возьмёшь. И то насрут там, где меньше всего ждёшь, гады!

VIT ★★
()
Ответ на: комментарий от VIT

Google долгое время разрабатывала свои TPM ускорители

Что значит «TPM»? Гугл находит только расшифровку «Trusted Platform Module», но это не про ускорение.

одна из самых мерзких контор для Open source и никогда ничего по доброй воле не откроет, пока за жопу не возьмёшь.

Поэтому и спрашиваю.

question4 ★★★★★
()
Ответ на: комментарий от question4

Это название их ускорителя для тренировки моделей. Они строятся на базе training processing units - TPU. Пардон, ошибка в названии.

VIT ★★
()
Ответ на: комментарий от avgust23

Бородатый смуглый мужик слева, правая рука.

Это сейчас прикол такой новый, пальцы на картинках у людей считать? И вправду шесть!

VIT ★★
()
Ответ на: комментарий от question4

https://ru.wikipedia.org/wiki/Тензорный_процессор_Google.
https://en.wikipedia.org/wiki/Tensor_Processing_Unit.

In April 2025, at Google Cloud Next conference, Google unveiled TPU v7. This new chip, called Ironwood, will come in two configurations: a 256-chip cluster and a 9,216-chip cluster. Ironwood will have a peak computational performance rate of 4,614 TFLOP/s.

dataman ★★★★★
()
Ответ на: комментарий от dataman

Да, оно! Не знаю, почему я несколько раз назвал их TPM. В маразм впадаю, термины начал путать.

VIT ★★
()
Ответ на: комментарий от VIT
- Я на протяжении года считаю пальцы на ваших картинках. У вас их то пять, то шесть, то семь. Вы что там, сумасшедшие что ли?

А если серьезно - лучше никакие иллюстрации не вешать, чем нейроночные.

liksys ★★★★
()
Ответ на: комментарий от liksys

Может и так, но эта картинка весёлая. Мне она напомнила то, что ребята из Nvidia, Intel, и AMD подчас сами не помнят, а в какой компании я сегодня работаю. Ведущий разработчик GPU для Intel пришёл туда с подобной должности из AMD. Пара ключевых инженеров производительности микроархитектур из Intel ушли в AMD и Nvidia. Вот с Авинашем (KNL) приключилась оказия, зачем то ушёл в Cavium, но в основном народ перетекает между этими тремя.

VIT ★★
()
Для того чтобы оставить комментарий войдите или зарегистрируйтесь.