Исправление aist1, (текущая версия) :
FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.
GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик — грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.
... то FPGA бы правило миром.
А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA. Сейчас, правда, ASIC можно выпечь и мелким тиражем, если кремниевый процесс не нужно твикать под дизайн. Но оно все равно долго и дорого.
Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)
В общем, начинаем с FPGA, и потом, если оно оказалось стоящее, выпекаем ASIC. В Мемории самой по себе (еще без процессинга) есть очень много всего, что можно поддержать аппаратно. Например, тегированная память для аппаратной защиты данных. Или аналоги битовых операций для словарей больше 2 символов, на них там много что построено, но на CPU оно сейчас реализуется плохо. Поддержка различных техник сжатия для сжатых структур данных. И т.п.
Акселераторы — это ведь не обязательно именно высокопроизводительные вычисления (GPGPU). Это еще и энергоэффективные. Я бы хотел видеть элементы Мемории (тегированная защищенная память, символьные операции и т.п.) в MCU (не во всех, ессно, они нужны).
Исправление aist1, :
FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.
GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик — грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.
... то FPGA бы правило миром.
А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA. Сейчас, правда, ASIC можно выпечь и мелким тиражем, если кремниевый процесс не нужно твикать под дизайн. Но оно все равно долго и дорого.
Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)
В общем, начинаем с FPGA, и потом, если оно оказалось стоящее, выпекаем ASIC. В Мемории самой по себе (еще без процессинга) есть очень много всего, что можно поддержать аппаратно. Например, тегированная память для аппаратной защиты данных. Или аналоги битовых операций для словарей больше 2 символов, на них там много что построено, но на CPU оно сейчас реализуется плохо. Поддержка различных техник сжатия для сжатых структур данных. И т.п.
Исправление aist1, :
FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.
GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик — грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.
... то FPGA бы правило миром.
А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA. Сейчас, правда, ASIC можно выпечь и мелким тиражем, если кремниевый процесс не нужно твикать под дизайн. Но оно все равно долго и дорого.
Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)
Исходная версия aist1, :
FPGA тоже намного менее эффективны, чем ASIC. Иногда FPGA выигрывает у GPGPU, иногда GPGPU выигрывает у FPGA, иногда они примерно на одном уровне.
GPGPU и есть ASIC, просто «на стероидах». Дело здесь такое. FPGA очень дорогие поштучно, у них низкие частоты, и низкая (относительно ASIC) степень интеграции из-за того, что большую часть кристалла занимает interconnect. ASIC-и имеют в 5-10 раз большую частоту и во столько же раз меньшую цену, но они application-specific. Поэтому, FPGA порвет GPGPU как Тузик --грелку, если дизайн плохо ложится на PU GPU. ASIC-и обычно очень неэффективны за пределами задачи, для которой они разрабатывались.
... то FPGA бы правило миром.
А они и правят)) Ты сначала делаешь на FPGA, и только если тебе нужно «много чипов» (масштаб), ты выпекаешь ASIC. Всё мелкотиражное или сидит на MCU, или на FPGA.
Если говорить про текущее поколение FPGA (к которому относится и мой U50), то у них нет Network on Chip, поэтому делать на них акселераторы приложений в виде массивов PU не особо эффективно (относительно тех же GPU). Новейшие FPGA выделенный NoC уже содержат, и очень интересно было бы на их возможности посмотреть :)