LINUX.ORG.RU
ФорумTalks

Ядро на GPU


0

0

Исследователи из университета Юты представили проект KGPU, в рамках которого разработан способ перенести исполнение частей кода ядра Linux на графический процессор, поддерживающий технологию NVIDIA CUDA. Код KGPU распространяется в рамках лицензии GPLv2.

NSK или Non-Stop Kernel представляет собой код, исполняемый на GPU и способный загружать дополнительные модули (сервисы в терминологии KGPU), каждый из которых может выполнять определенный вид работы по обработке данных. NSK принимает запросы, загружает сервис (для повышения производительности он может быть загружен заранее) и отдает ему данные, ожидая результатов исполнения, которые затем будут переданы обратно по цепочке модулю ядра. Для передачи данных между компонентами системы используется коммуникационный протокол, реализованный с помощью быстрой pinned-памяти, выделяемой драйвером CUDA.

Такая архитектура позволяет перенести фрагменты кода ядра на графический процессор просто переписав их в виде NSK-сервисов. В подтверждение авторы KGPU создали реализацию алгоритма AES, которая позволила поднять скорость шифрования файловой системы eCryptfs в 6 раз.

картиночки ---> http://code.google.com/p/kgpu/wiki/IozoneBenchmarkResults
хомпага ---> http://code.google.com/p/kgpu/

/////тупой копипаст с опеннета

★★★★

Ответ на: комментарий от darkshvein

...тогда у линаксоидов будут не только самые шустрые процессоры, но и топовые видеокарты!

darkshvein ☆☆ ()
Ответ на: комментарий от darkshvein

не-не-не
на GPU профита не будет - оно такое не прожуёт с приемлемой скоростью

megabaks ★★★★ ()
Ответ на: комментарий от darkshvein

а смысл?
реализаций мильён - работает нормально тока от *внезапно* нвидии *ещё_внезапнее* даже на ати
ну и нафига козе баян?

megabaks ★★★★ ()

>В подтверждение авторы KGPU создали реализацию алгоритма AES, которая позволила поднять скорость шифрования файловой системы eCryptfs в 6 раз.

Теперь можно обосновывать необходимость закупки крутой видяхи для сервера

DNA_Seq ★★☆☆☆ ()

Сама архитектура такой связки так и говорит о стабильности. Лучше б библиотеки пользовательского уровня переносили. В Макоси уже вчера наступил сегодня, а в линуксе воз и ныне на месте. Я б кодеку какого-нибудь WebM на OpenCL больше радовался.

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от DNA_Seq

>Теперь можно обосновывать необходимость закупки крутой видяхи для сервера
вот ты, геймер, и спалилсо :3

megabaks ★★★★ ()
Ответ на: комментарий от megabaks

Ну для начала декодеры видео. В графических преобразованиях типа поворотов картинок. Только этого достаточно.

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от megabaks

На opencl ни одного. Поделки вроде VDPAU не нужны ибо привязаны к производителю. Ну не смогла она (нвидиа) пропихнуть его в кач-ве стандарта, а OpenCL смог.

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от timur_dav

Вру, на днях FLAC нашёл на OpenCL. Зовётся FlaCUDA... изначально на CUDA был, переписан на сабж. Но не нужен особенно, ибо и так не жручий до камня.

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от megabaks

Флеш на VDPAU тоже у кое-кого заработал даже, но всё одно не нужен. Я не спорю, оно приятственно, но, к сожалению, я, скажем на Thinkpad X100e с ATI, уже не могу его использовать...

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от megabaks

Да и представь только, как бы было приятно юзать какой-нибудь OpenCL разогнанный скайпик, а не удручаться фактом того, что ноут через 5 минут начинает приятно греть коленки. Зимой оно и плюсы есть в этом, но не при 25 на дворе.

timur_dav ☆☆☆☆☆ ()

поглядим когда подобное сделают с амд апу.

AndreyKl ★★★★★ ()
Ответ на: комментарий от megabaks

даже на ати

Вроде у ати\амд 50% дискретной графики в прошлом году было, если не ошибаюсь. Так что не даже , а половине железа в мире куда не уперлась. Про 50% глобальных у интела я и вообще молчу. Вот и выходит, что куда это только 25% железа всего лишь.(очень грубо посчитал)

Loki13 ★★★★★ ()
Ответ на: комментарий от pekmop1024

Давай взглянем со стороны тупого обывателя. Я играю через CPU и у меня вентилятор работает постоянно, да ещё на повышенной частоте. Я играю через GPU и он у меня не включается вообще. Где логика?

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от timur_dav

Хреновое охлаждение на GPU, вот и вся логика.
Кулер у тебя один, и два радиатора на CPU и GPU, связанные между собой тепловой трубкой. Поэтому когда ты играешь, что на самом деле греется, можно узнать, только разобрав машинку и разделив охлаждение.

Да, раздельное охлаждение CPU и GPU есть только на топовых моделях десктоп-реплейсментов, и я как раз являюсь обладателем одной из них. Так вот, спешу тебя «обрадовать» - GPU под нагрузкой греется так же нелинейно, как и CPU, и ему достаточно дать немного этой самой нагрузки, чтобы машинка взвыла кулером, ответственным за GPU.

pekmop1024 ★★★★★ ()
Ответ на: комментарий от pekmop1024

А у видеокарты тепловыделения нет, что-ли? Будет просто греть не левую коленку, а правую.

например у меня на плате Asus M3N WS - есть безвентиляторный «распаянный» 8200 с Cuda и проигрыванием FullHD, а даже для энергоэффективного процессора - вентилятор на радиаторе строго желателен.

tommy ★★★★★ ()
Ответ на: комментарий от megabaks

Это возможно, не проверял. Если бы какой нибудь враппер «куда-опенцл»... это было бы дело

Loki13 ★★★★★ ()
Ответ на: комментарий от pekmop1024

а это неважно. главное что он досточно мощный и справляется в FullHD и работает всё без вентилятора. а проц при проигрывании FullHD дико греется и ни о каком безвентиляторном решении речи не идёт - тепло надо от платы и сокета отводить.

tommy ★★★★★ ()
Ответ на: комментарий от pekmop1024

>>>Да, раздельное охлаждение CPU и GPU есть только на топовых моделях десктоп-реплейсментов, и я как раз являюсь обладателем одной из них

Совершенно внезапно у меня как раз именно так. Так в чём же профит использования тогда аппаратного ускорения? Просто я вот смотрю на свои 5 часов проигрывания fullhd в режиме аппаратного ускорения и недоумеваю... Где логика?

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от pekmop1024

>>> Хреновое охлаждение на GPU, вот и вся логика.

И таки я (прикинусь совсем глупым) не понимаю, куда девается тепло, которое должно отводится, если, предположим, хреновое охлаждение GPU? Перегрева не наблюдаю... Видео играет, а не греицца. Куда копать? Играю программным кодеком ffmpeg - греицца. Я ни понял ничего :)

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от pekmop1024

>>> Не знаю, я твою мессагу не распарсил. :)

Пора с пятницы уже отойти, есть шанс не выжить после 9-го с таким слабым здоровьем :)

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от timur_dav

Меньше греется. Возможно, в биосе порог температуры для включения кулера видеокарты выше, если у тебя раздельные крутилки. Вопросов больше, чем ответов. С одним я согласен - специализированные чипы вроде GPU более энергоэффективны на декодировании видео, но это не значит, что им не нужно охлаждение.

P.S. tommy, 1080р не взлетит на 8200. Оно не взлетает даже на 8400GS.

pekmop1024 ★★★★★ ()
Ответ на: комментарий от DNA_Seq

Теперь можно обосновывать необходимость закупки крутой видяхи для сервера

А это смотря чем сервер занимается. У нас, к примеру, и так для некоторых задач сервер, управляющий сбором данных, должен иметь мощную видеокарту (т.к. процессор не справляется с обработкой изображений «на лету»).

Eddy_Em ☆☆☆☆☆ ()
Ответ на: комментарий от pekmop1024

>>> но это не значит, что им не нужно охлаждение.

Ни слова нет про это в постах. Просто они энергоэффективнее на числодробильных операциях. Вычислительная нагрузка постоянна, расход энергии меньше.

Возможно, в биосе порог температуры для включения кулера видеокарты выше, если у тебя раздельные крутилки.

К сожалению или счастью мой ноут не знает о разных там БИОСах...

timur_dav ☆☆☆☆☆ ()
Ответ на: комментарий от timur_dav

Если это макбук, то EFI - смысл не меняется, управление охлаждения все равно там. Хотя иногда бывают и исключения: у меня, например, стоит отдельный контроллер с отдельной прошивкой. Управляет кулерами, Fn-клавишами и т.д.

pekmop1024 ★★★★★ ()
Ответ на: комментарий от timur_dav

А я себе апгрейд ради 1080p делал: старая видеокарта (5200) не умела VDPAU, пришлось покупать материнку и 9600. Зато теперь у меня есть и VDPAU, и CUDA, и приличный 3D.

Eddy_Em ☆☆☆☆☆ ()

А вообще, что было бы реально интересно, так это виртуализация на GPU, но боюсь, такого архитектура массового GPU не позволит.

pekmop1024 ★★★★★ ()
Ответ на: комментарий от pekmop1024

реально интересно - это архиваторы-мультимедия-шифрование
а виртуализация...GPU не любит же дёргаться лишний раз
сомневаюсь, что не мартышкин труд получится

megabaks ★★★★ ()

> В подтверждение авторы KGPU создали реализацию алгоритма AES, которая позволила поднять скорость шифрования файловой системы eCryptfs в 6 раз.

А использование инструкций AES-NI увеличивает скорость шифрования в 11 раз. GPU сосёт.

Relan ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.