LINUX.ORG.RU

Самый быстрый в мире PC-Linux кластер работает под управлением Debian


0

0

В университете города Heidelberg работает самый быстрый в мире PC-Linux кластер HELICS (HEidelberg LInux Cluster System). Кластер использует 512 процессоров Athlon MP 1.4GHz и может развивать теоретическую скорость в 2.4 Gflops. В кластере применяется OS Debian GNU/Linux. Данная система занимает 35-ю строчку в рейтинге суперкомпьютеров (http://www1.top500.org/list/2002/06/).

>>> Подробности

anonymous

Проверено: maxcom

Дебиан рулит ) И кластеры под линухом тоже )

anonymous
()

Рулят не кластеры под Линуксом, а 512 процессоров Athlon MP ;-)

anonymous
()

Только вот они почему-то рулят только в сочитании с линуксячем кластером ;) Под виндой ниче не рулит ;)

anonymous
()

А наши в этом топе в единственном числе на 64 месте :(

asoneofus
()

2asoneofus
Зато тоже на линухе ;)

anonymous
()

дааааа..... дожили..... GFlop мерять на атлонах.

если честно, вспоминается древняя русская поговорка "заставь дурака богу молится, он и лоб себе расшибет"

осталось тока воткнуть линух в говноотсосы деревенские, и будет полное счастье. нашли применение. альфы нахрен, нам подешевше печки, натыкать туда линухов и попасть в рейтинх. ну, умное сокращение "теоретический GFlop" приплести.

ну, покажите мне хоть одну задачу решенную на таком кластере ;/ (обогрев университета прошу не указывать по причине неприменимости Gflop как измерителя :)

lb
()

ИМХО, athlon + linux (debian или slackware) это самое продуктивное решение на сегодняшний день, как на десктопах так и на серверах. Ногами просьба не пинать, ссылок тоже нету (если только на ixbt :-), все вышесказанное прошу считать моим личным мнением.

McGray ★★
()

А можно ли сделать кластер на БСДЕ(free)?

anonymous
()

>А можно ли сделать кластер на БСДЕ(free)?

Вроде можно, я как-то давно доклад про это слышал, подробности не помню.

anonymous
()

А речь идёт именно о GFlops? Как-то несерьёзно 2.4GFlops для 512 доебанов...

Может быть, Вы имели ввиду TFlops?

gamajun
()

Кто-нибудь пытался статью прочесть?
2.4Gflops это теоретически развивает один Athlon MP.
А кластер практически развивает 825 Gflops.

anonymous
()

2lb:

Ну и скажите мне какая, фиг, разница, на чём строить кластер?
Да, Атлон - печка, да, он далеко не Альфа, НО:

1. Этот кластер - COTS (commercial off-the-shell), и проблем с ЗИПом и апгрэйдом - никаких.
2. Всвязи с п.1. - за 1,15 мегабакса большой кластер на Альфах можно построить? То-то и оно.

Наш, кстати, суперкомпьютер стоит около 10 милл. $ и дает около 600 GFLOPS. Делайте выводы...

Kirill
()

>The total system indicates a theoretical peak performance of more than 1.4 Teraflops -информация с сайта проекта. Как всегда, на LOR читать не умеют.

2anonymous (*) (2002-06-29 16:09:07.837): Под WinNeandertalTechnology тоже всё шустро бегает, но лицензия на узел обходится до 3.5К$, что показывает полную отстойность таких решений.

2lb(фанат альфы) - я лично MOPAC на кластере из 64 атлонов каждый день гоняю, статей напубликовал дофига - вот тебе и решённая задача.

anonymous
()

2Kirill "Наш, кстати, суперкомпьютер стоит около 10 милл. $ и дает около 600 GFLOPS." - Угу. А мы понимаем разницу между максимальной производительностью, которую может дать кластер той производительносью, что можно получить от суперкомпьютера. Ты попробуй выжать из кластера его эту самую максимальную производительность. Хотябы четверть её. Хотябы 1/8 её. Особенно из такого, который, скажем, из > 100 машин.

lenin
()
Ответ на: комментарий от lenin

> Ты попробуй выжать из кластера его эту самую максимальную производительность.

Производительность любого суперкомпьютера считается на задаче, под которую его архитектура реально оптимизирована. Для подобных кластеров наиболее показательная задача - расчет со очень слабой зависимостью между узлами, и на такой задаче он должен показать эти самые 600GFlops.

maxcom ★★★★★
()

2lenin:

Ок. Давай разберемся. Для МВС-1000М (наш СК) имеем чуть более 1 TFLOPS ПИКОВОЙ ТЕОРЕТИЧЕСКОЙ производительности. Ее обычно указывают либо в ТЗ на проект, либо, чтобы пальцы кинуть либо для сравнения эффективности относительно реальной. Так вот, для МВС-1000М, я говорил о 600 GFLOPS как о РЕАЛЬНОЙ ПРОИЗВОДИТЕЛЬНОСТИ СК полученной на признанном средстве для измерения этих самых GFLOPS √ Linpack (а точнее ScaLAPACK или HPL). Итого имеем эффективность в 60%, что очень неплохо для КЛАСТЕРА.

P.S. 2maxcom:
Как я уже сказал, обычно (в частности в TOP500) указывают помимо пиковой реальную производительность именно в "линпаковских" MFLOPS. А по поводу слабосвязности - сейчас уже не так все плохо. Это было верно, когда использовали FastEthernet как интерконнект.

Kirill
()

А если все-таки вернуться не к обсуждению производительности, хотя она конечно важна, а к ее цене?
Я согласен с тем, что Aтлон+Линукс, на данном этапе, самое выгодное решение в плане единоразовых затрат. Но, тут правильно "недоброжелатели" подметили, что получается "печка подешевше", над чем я и думаю посомневаться. Я не знаток по поводу затрат энергопотребления процессоров и на данный момент не располагаю достоверной информацией, но знаю точно, что Атлон потребляет значительно больше энергии (читай денег) в процессе своей работы, чем, например, Интел (естественно, что Интел тут только для сравнения энергопотребления). Ничего не могу сказать правда про Альфу, потому что не знаю. Если она такая-же энергоемкая, то тогда получается тоже самое. Но про нее что-то не слышно, что она греется, как печка. А значит и энергии она должна потреблять меньше, чем Атлон.
Если это все правильно, то тогда дешевизна кластеров на Атлонах выгоднее только в краткосрочной перспективе, а в дальносрочной... Ну, дамаю тут все понятно.
Конечно, учитывая разницу в несколько мега баксов (почти в 9, как я понял, если сравнивать с нашим СК на Альфах) дальносрочная перспектива может оказаться уж слишком дальносрочной и к тому моменту и тот и др. Супер-компьютер будут пущены в расход, отчего Атлон конечно же только выигрывает.
Как раз этот момент и интересует. Может кто располагает информацией и может это прикинуть на более-менее реальных цифрах - было бы очень интересно узнать.

vetalspb
()
Ответ на: комментарий от lb


>ну, покажите мне хоть одну задачу решенную на таком кластере ;/ >(обогрев университета прошу не указывать по причине неприменимости >Gflop как измерителя :)

>lb (*) (2002-06-29 20:13:39.093)

Shreck смотрел ? ;)

PS: btw CFD задачи решаются на таких кластерах на ура ...


/SS

anonymous
()
Ответ на: комментарий от Kirill

> А по поводу слабосвязности - сейчас уже не так все плохо. Это было
>верно, когда использовали FastEthernet как интерконнект.

Ну это все равно проблемы то не снимает - GigabitEthernet к примеру
имеет уже проблемы с пропускной способностью PCI шины (для fullduplex)
не зря же под гигабитные карты ставят PCI64 а это уже совсем другие $$
в расчете на один узел ... у других гигабитных решений проблемы пиримерно те же - так что сильносвязность задачи это ImHO по прежнему проблема

/SS

anonymous
()

2 SS:
>GigabitEthernet к примеру имеет уже проблемы с пропускной
>способностью PCI шины (для fullduplex)

GigabitEthernet вообще технология не для таких применений (ИМХО). И PCI - ему не тормоз. Вот для, к примеру, Myrinet или Quadrics - да, тут уже PCI-32 тормозит в полную силу. Но это уже НУ СОВСЕМ другие $$$. :-)

Kirill
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.