LINUX.ORG.RU

История изменений

Исправление mv, (текущая версия) :

В сетевые карты сейчас пихают ASIC-и с загружаемыми фильтрами, для NN используют GPU и/или TPU. И где те FPGA?

Да-да, делают TPU, трубят помпезно, что эге-гей - GPU порвали! А потом производитель GPU вылазит и говорит: «Э, вы неправильно на GPU посчитали. Если по-честному всё сделать, то у нас не хуже». Я The Next Platform тоже читаю :)

А потом делают более лучший TPU2. И всё потому, что у конторы сотни мильярдов свободного бабла - делай, что хочешь. ASIC такой, ASIC сякой. А кто победнее, тот на скоромном GPU считает. Или на FPGA, если периферию мимо CPU пробросить надо. Или на NVLink с CAPI всё в кучу валит, чтобы и так, и сяк можно было, и не слишком геморройно переключаться.

У Qualcomm-а, Marvell-а и Ampere. Не знаю, правда, дают ли они, как Интел.

Кто для большого бизнеса сделает кастомную материнку? Супермикро, которое не готово подписываться под большие же штрафы и неустойки за косяки? Или бизнесу надо самому иметь свободного кэша сотни мильярдов, чтобы смочь железку сделать самому, и потом, в случае чего, пережить репутационный ущерб, если криво-косо получилось, и 100 тысяч проданных кастомерам коробок вдруг через пару лет окажутся дефектными?

Нет у мелких контор сейчас таких возможностей. Или укрупнятся, покупая друг друга до предела, или что-то невероятное в плане инвестирования случится, или будет тихо-долго выгрызать свои проценты на рынке.

И это всё при условии, что хотя бы по какому-то критерию новый проц окажется сладким. Худо-бедно быстрый, и дешёвый, например. Или в два раза меньше электричества жрёт. И с портированием софта проблем особых чтобы не было, это ведь тоже годы отнимает.

Уверяю, что каждый второй студент MIT, пройдя курс по процессоростроению, думает: «Ух, блин, щас налабаю идеальный суперпроц, который покорит мир!». И это правильно: если он так не думает, то он профнепригоден.

Часто начинают ныть, что в x86 какая-то библиотека была оптимизирована на ассемблере, а на ARM-е - нет.

Я чаще ною, что для x86 библиотека была оптимизирована на ассемблере, а на следующей микроархитектуре оно работает медленней, чем свежий GCC выдаёт. Поэтому последние несколько лет из ассемблера вижу только дизассеблированный код, чтобы понять, в каком месте сишного исходника упало. Это если дебагинфо недоступно.

А ещё, многие покупают «малинку-апельсинку» за $20 и сравнивают производительность со своим x86 тазиком за $1000-1500.

Ну мы же профессионалы, мы очевидно глупыми вещами не занимаемся?

Исправление mv, :

В сетевые карты сейчас пихают ASIC-и с загружаемыми фильтрами, для NN используют GPU и/или TPU. И где те FPGA?

Да-да, делают TPU, трубят помпезно, что эге-гей - GPU порвали! А потом производитель GPU вылазит и говорит: «Э, вы неправильно на GPU посчитали. Если по-честному всё сделать, то у нас не хуже». Я The Next Platform тоже читаю :)

А потом делают более лучший TPU2. И всё потому, что у конторы сотни мильярдов свободного бабла - делай, что хочешь. ASIC такой, ASIC сякой. А кто победнее, тот на скоромном GPU считает. Или на FPGA, если периферию мимо CPU пробросить надо. Или на NVLink с CAPI всё в кучу валит, чтобы и так, и сяк можно было, и не слишком геморройно переключаться.

У Qualcomm-а, Marvell-а и Ampere. Не знаю, правда, дают ли они, как Интел.

Кто для большого бизнеса сделает кастомную материнку? Супермикро, которое не готово подписываться под большие же штрафы и неустойки за косяки? Или бизнесу надо самому иметь свободного кэша сотни мильярдов, чтобы смочь железку сделать самому, и потом, в случае чего, пережить репутационный ущерб, если криво-косо получилось, и 100 тысяч проданных кастомерам коробок вдруг через пару лет окажется дефектным?

Нет у мелких контор сейчас таких возможностей. Или укрупнятся, покупая друг друга до предела, или что-то невероятное в плане инвестирования случится, или будет тихо-долго выгрызать свои проценты на рынке.

И это всё при условии, что хотя бы по какому-то критерию новый проц окажется сладким. Худо-бедно быстрый, и дешёвый, например. Или в два раза меньше электричества жрёт. И с портированием софта проблем особых чтобы не было, это ведь тоже годы отнимает.

Уверяю, что каждый второй студент MIT, пройдя курс по процессоростроению, думает: «Ух, блин, щас налабаю идеальный суперпроц, который покорит мир!». И это правильно: если он так не думает, то он профнепригоден.

Часто начинают ныть, что в x86 какая-то библиотека была оптимизирована на ассемблере, а на ARM-е - нет.

Я чаще ною, что для x86 библиотека была оптимизирована на ассемблере, а на следующей микроархитектуре оно работает медленней, чем свежий GCC выдаёт. Поэтому последние несколько лет из ассемблера вижу только дизассеблированный код, чтобы понять, в каком месте сишного исходника упало. Это если дебагинфо недоступно.

А ещё, многие покупают «малинку-апельсинку» за $20 и сравнивают производительность со своим x86 тазиком за $1000-1500.

Ну мы же профессионалы, мы очевидно глупыми вещами не занимаемся?

Исходная версия mv, :

В сетевые карты сейчас пихают ASIC-и с загружаемыми фильтрами, для NN используют GPU и/или TPU. И где те FPGA?

Да-да, делают TPU, трубят помпезно, что эге-гей - GPU порвали! А потом производитель GPU вылазит и говорит: «Э, вы неправильно на GPU посчитали. Если по-честному всё сделать, то у нас не хуже». Я The Next Platform тоже читаю :)

А потом делают более лучший TPU2. И всё потому, что у конторы сотни мильярдов свободного бабла - делай, что хочешь. ASIC такой, ASIC сякой. А кто победнее, тот на скоромном GPU считает. Или на FPGA, если периферию мимо CPU пробросить надо. Или на NVLink с CAPI всё в кучу валит, чтобы и так, и сяк можно было, и не слишком геморройно переключаться.

У Qualcomm-а, Marvell-а и Ampere. Не знаю, правда, дают ли они, как Интел.

Кто для большого бизнеса сделает кастомную материнку? Супермикро, которое не готово подписываться под большие же штрафы и неустойки за косяки? Или бизнесу надо самому иметь свободного кэша сотни мильярдов, чтобы смочь железку сделать самому, и потом, в случае чего, пережить репутационный ущерб, если криво-косо получилось, и 100 тысяч проданных кастомерам коробок вдруг через пару лет окажется дефектным?

Нет у мелких контор сейчас таких возможностей. Или укрупнятся, покупая друг друга до предела, или что-то невероятное в плане инвестирования случится, или будет тихо-долго выгрызать свои проценты на рынке.

И это всё при условии, что хотя бы по какому-то критерию новый проц окажется сладким. Худо-бедно быстрый, и дешёвый, например. Или в два раза меньше электричества жрёт. И с портированием софта проблем особых чтобы не было, это ведь тоже годы отнимает.

Уверяю, что каждый второй студент MIT, пройдя курс по процессоростроению, думает: «Ух, блин, щас налабаю идеальный суперпроц, который покорит мир!». И это правильно: если он так не думает, то он профнепригоден.

Часто начинают ныть, что в x86 какая-то библиотека была оптимизирована на ассемблере, а на ARM-е - нет.

Я чаще ною, что для x86 библиотека была оптимизирована на ассемблере, а на следующей микроархитектуре оно работает медленней, чем свежий GCC выдаёт. Поэтому последние несколько лет из ассемблера вижу только дизассеблированный код, чтобы понять, в каком месте сишного исходника упало. Это если дебагинфо недоступно.

А ещё, многие покупают «малинку-апельсинку» за $20 и сравнивают производительность со своим x86 тазиком за $1000-1500.

Ну мы же профессионалы, мы очевидно глупыми вещами не занимаеся?