LINUX.ORG.RU

История изменений

Исправление aist1, (текущая версия) :

FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.

GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик — грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.

... то FPGA бы правило миром.

А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA. Сейчас, правда, ASIC можно выпечь и мелким тиражем, если кремниевый процесс не нужно твикать под дизайн. Но оно все равно долго и дорого.

Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)

В общем, начинаем с FPGA, и потом, если оно оказалось стоящее, выпекаем ASIC. В Мемории самой по себе (еще без процессинга) есть очень много всего, что можно поддержать аппаратно. Например, тегированная память для аппаратной защиты данных. Или аналоги битовых операций для словарей больше 2 символов, на них там много что построено, но на CPU оно сейчас реализуется плохо. Поддержка различных техник сжатия для сжатых структур данных. И т.п.

Акселераторы — это ведь не обязательно именно высокопроизводительные вычисления (GPGPU). Это еще и энергоэффективные. Я бы хотел видеть элементы Мемории (тегированная защищенная память, символьные операции и т.п.) в MCU (не во всех, ессно, они нужны).

Исправление aist1, :

FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.

GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик — грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.

... то FPGA бы правило миром.

А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA. Сейчас, правда, ASIC можно выпечь и мелким тиражем, если кремниевый процесс не нужно твикать под дизайн. Но оно все равно долго и дорого.

Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)

В общем, начинаем с FPGA, и потом, если оно оказалось стоящее, выпекаем ASIC. В Мемории самой по себе (еще без процессинга) есть очень много всего, что можно поддержать аппаратно. Например, тегированная память для аппаратной защиты данных. Или аналоги битовых операций для словарей больше 2 символов, на них там много что построено, но на CPU оно сейчас реализуется плохо. Поддержка различных техник сжатия для сжатых структур данных. И т.п.

Исправление aist1, :

FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.

GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик — грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.

... то FPGA бы правило миром.

А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA. Сейчас, правда, ASIC можно выпечь и мелким тиражем, если кремниевый процесс не нужно твикать под дизайн. Но оно все равно долго и дорого.

Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)

Исходная версия aist1, :

FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.

GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик --грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.

... то FPGA бы правило миром.

А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA.

Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)