LINUX.ORG.RU

Выпущен Open MPI 4.1.5

 


1

0

Сообщество Open MPI радо объявить о выпуске версии 4.1.5 библиотеки Open MPI (Message Passing Interface, интерфейс передачи сообщений — API для передачи информации, позволяющий обмениваться сообщениями между процессами, выполняющими одну задачу). Это выпуск исправления ошибок.

Новое в версии 4.1.5:

  • исправление сбоя в односторонних приложениях для определенных компоновок процессов;
  • обновление встроенного OpenPMIx до версии 3.2.4;
  • исправление проблемы сборки с ifort на MacOS;
  • экспорт исправлений в Libevent для CVE-2016-10195, CVE-2016-10196 и CVE-2016-10197. (обратите внимание, что внутренний libevent Open MPI не использует затронутые части кодовой базы Libevent);
  • усовершенствования SHMEM:
    • исправление ошибок инициализатора в интерфейсе SHMEM;
    • исправление сравнения беззнаковых типов, генерирующие предупреждения;
    • исправление проблемы использования после очистки в shmem_ds_reset;
  • улучшения UCX:
    • исправлена ошибка регистрации памяти, которая могла возникнуть, когда UCX был создан, но не выбран;
    • уменьшены накладные расходы на add_procs с интеркоммуникаторами;
    • включен multi_send_nb по умолчанию;
    • вызов opal_progress в ожидании завершения забора UCX;
  • исправлена ошибка повреждения данных в компоненте osc/rdma;
  • исправлена ошибка переполнения во всех группах;
  • исправлен сбой при отображении топологии;
  • добавлены некоторые константы MPI_F_XXX, которые отсутствовали в mpi.h;
  • исправлены ошибки coll/ucc.

Open MPI v4.1.5 можно загрузить с веб-сайта Open MPI.

>>> Подробности

★★★★★

Проверено: hobbit ()
Последнее исправление: maxcom (всего исправлений: 2)

The Open MPI community is pleased to announce

Сообщество Open MPI радо объявить

радо

Ну такое. Гуглом переводил? :)

Gonzo ★★★★★
()
Ответ на: комментарий от Gonzo

Это для вычислений с распределённой памятью, взял задачу раскидал на 1500 ядер на 64 машины и они все вместе считают одну задачу с общей памятью синхронизируемой по сети. Не путать с OpenMP.

  • OpenMP наилегчайшее распаралеливание любой программы или куска кода в программе на одном хосте. Для локальных параллельных вычислений.

  • OpenMPI наилегчайшее распаралеливание любой программы или куска кода в программе на множестве хостов объединённых в сеть. Для вычислений на кластерах от двух машин до суперкомпьютеров или просто кучи машин в сети.

LINUX-ORG-RU ★★★★★
()
Ответ на: комментарий от LINUX-ORG-RU

Ух ты, круть. Благодарю. Пойду раскидаю чёнить у себя на локалхосте :)

Gonzo ★★★★★
()
Ответ на: комментарий от LINUX-ORG-RU

Насколько я понял, общая память ортогональна MPI и сам MPI не предусматривает общей памяти в масштабах кластера. На то он и мессъдж-пассинг.

token_polyak ★★★★
()
Последнее исправление: token_polyak (всего исправлений: 2)

Просьба - давать описание программы в самом начале новости. Хотя бы пару слов - что это такое?

Windows ★★★
()
Ответ на: комментарий от Gonzo

У меня такое ощущение, что всех нынешних лоровцев в гугле забанили, есичесно. Всё им на блюдичке и два. А думать за вас будет (кто?) GPTchat, разумеется. Так что нет. Не лишайте меня счастья самому шевелить мозгами.

Поиск информации без какой-либо помощи - это непосильный умственный труд

Pinux001
()
Последнее исправление: Pinux001 (всего исправлений: 1)
Ответ на: комментарий от Pinux001

«Представляем вашему вниманию штуку которая делает штуки на которые вам точно будет не насрать если вы погуглите что это и почитаете еще две статьи префаером»

Так новости не пишут. Должно быть что-то что заинтересует читателя, потому что иначе получается просто поток сознания.

экпорт исправлений в Libevent для CVE-2016-10195, CVE-2016-10196 и CVE-2016-10197

Вот что мне это должно сказать? Моя изначальная реакция будет как на пикриле

Я понимаю что половина на этом форуме роботы-аутисты, но я не собираюсь тратить время и читать багтрекер лишь для того чтобы понять так сказать БАЗУ

Unixson
()
Ответ на: комментарий от LINUX-ORG-RU

Расписал как раз для таких как я лохов, т.к. у меня в голове сразу всплыл OpenMP.

З.Ы. задач с расспараллеливанием я уже с института не встречал. Не в той сфере работаю - нам дикие расчёты не нужны. Оч. редко использую обычные fork() или CreateProcess() с примитивной синхронизацией.

drfaust ★★★★★
()
Ответ на: комментарий от token_polyak

Ну да единые данные разбиваются на пакеты и шлются исполнителям те исполняют и дают результат. Независимая обработка одних данных множеством вычислителей. Я всё никак не потыкаю. Если для OMP применений куда не плюнь, везде можно прагму подсунуть, а вот для MPI нужны задачи прям по массированной обработке здоровенных данных иначе смысла нет, а задач таких нету у меня. Илька Миска наверное свой ХЫПЫТЫчойт через MPI синхронизирует в кластерах.

LINUX-ORG-RU ★★★★★
()
Ответ на: комментарий от Pinux001

Не тупи, пожалуйста. Посмотри, как оформляют новости по-человечески. Везде в первой строке есть хотя бы намек, о чем та или иная тулза/либа/софтина. Неужели сложно автору добавить пару слов? Не думаю.

Gonzo ★★★★★
()
Ответ на: комментарий от Pinux001

Свои посты вроде можно редактировать. Как в новостях - хз. Скорее всего модераторы могут.

Gonzo ★★★★★
()
Ответ на: комментарий от Pinux001

Поиск информации без какой-либо помощи - это непосильный умственный труд

Зачем неинформационные недоновости и вообще лор, если каждый должен самостоятельно искать инфу? :)

bohm ★★★★★
()
Ответ на: комментарий от Pinux001

Не могу. Я не успел вчера привести в порядок. Зайди с модераторского и снеси новость. Я пересоздам заного.

Clockwork ★★★★★
() автор топика
Ответ на: комментарий от bohm

Зачем неинформационные недоновости и вообще лор, если каждый должен самостоятельно искать инфу? :)

Никто никому ничего не должен. Не нравится лор - не используйте. Мне лично новость очень нравится, побольше бы таких.

Ты просто взгляни на возмущенных - сплошная перепись неосиляторов же :)

Pinux001
()
Ответ на: комментарий от bohm

Сегодня ты не знаешь, что такое MPI, а завтра будешь просить пояснения о том, что такое TCP/IP?

grem ★★★★★
()
Ответ на: комментарий от bohm

Те кто не знают — им это не нужно. Всё таки это весьма узкоспециализированная технология.

thunar ★★★★★
()

Mpi, mpich, openmp это нужно для вычислений на ядрах и компах вроде кластера. Обычные си и плюсы вертятся на одном ядре в программе, вот например ты в программе используешь for(;;) или while (true) если посмотреть в диспетчере задач нагрузку то увидишь что твой процесс жрёт одно ядро на 100%. То есть ты не можешь занять комплюхтер задачей на весь ресурс доступный. А вот различные математические и физические расчёты можно ускорить данными библиотеками

bad_master
()
Ответ на: комментарий от bad_master

Но есть(*) расчетный софт, предназначенный как для запуска на кластерах, так и на обычных компах, в нем многопоток обычно делают на MPI.

(*) а может даже и большинство расчетного софта. Я только с квантовохимическим дело имел, он весь такой был.

annulen ★★★★★
()
Ответ на: комментарий от LINUX-ORG-RU

Вот Mathematica умеет параллелить не все, и не так много чего. Например, взятие интеграла или упрощение выражений не параллелятся. А эта штука может помочь? У меня на компе 16 физ ядер, а упрощает только одно, и иногда подолгу.

rustamych ★★★
()
Последнее исправление: rustamych (всего исправлений: 1)
Ответ на: комментарий от rustamych

Для распараллеливания чего угодно, должен распараллеливаться алгоритм. Это значит что всё или часть последовательности действий алгоритма могут быть вычислены независимо. Также не всё бесплатно порой быстрее посчитать что-то в одноптоке.

https://pro-prof.com/forums/topic/openmp-left-rectangle-method

Ну или распаралеливать не вам алгоритм, а обработку им данных. Типа есть функция которая что-то делает сложное с числом, этих чисел мильярд. С самой функцией мы ничего сделать не сможем, а вот раскидать миллиард чисел по 6 ядрам процессора например можем. Ускорение вычислений будет огромным. А если чисел ну там 10 то будет даже медленее.

Я в математике не алё вообще, если что. Ничего не скажу по делу. Только в целом. Да если алгоритм позволяет, в любом случае да если данных много.

LINUX-ORG-RU ★★★★★
()
Последнее исправление: LINUX-ORG-RU (всего исправлений: 2)
Ответ на: комментарий от rustamych

Ну интеграл как раз отлично параллелится, если только интересует численное интегрирование. Разбить интервал на участки и взять значение функции на каждом из них и просуммировать результат. Если интересует символьное вычисление первообразной, то, конечно нет.

MPI — это для численных длинных повторяющихся расчетов. Краевые задачи, конечные элементы, скалярные произведения — вот это вот все.

gns ★★★★★
()

Ну так себе поделка для узких задач для тех кому не лень в си коде копаться отлавливая миллиард ошибок

fardok
()
Ответ на: комментарий от thunar

весьма узкоспециализированная технология

Согласен, но все же было интересно почитать что и как применяется от пояснившего, и совсем не из новости, а тем более не от токсичных… :)

bohm ★★★★★
()
Ответ на: комментарий от bohm

Вкратце технология multi-process распараллеливания, для числодробилен не связанных общей памятью. Предоставляет, собственно, эти самые средства распараллеливания и обмена информацией между рассчётными нодами.

thunar ★★★★★
()
Последнее исправление: thunar (всего исправлений: 1)
Ответ на: комментарий от fardok

Пишите на Фортране, ошибок будет меньше :)

gns ★★★★★
()
Ответ на: комментарий от Clockwork

Я пересоздам заного
заного

Мои глаза...

Gonzo ★★★★★
()
Ответ на: комментарий от gns

Я имел в виду символьные вычисления. Численно я понимаю как это сделать, но практически ни разу не пользовался, поскольку и одним ядром считается достаточно быстро. В mathematica много встроенных алгоритмов. А символьные дела как-то не параллелятся.

rustamych ★★★
()
Ответ на: комментарий от rustamych

Ну символьные вычисления — это всяко секунды, ну минуты, если сильно не повезет. А mpi нужен если расчеты часами и сутками идут. У нас был расчет на часа полтора, помнится, ну так даже параллельных возможностей интелловского фортрана хватило что бы снизить время расчета до минут сорока.

gns ★★★★★
()
Ответ на: комментарий от grem

Ну да, тут же все владеют как минимум пятью кластерами по 1000 серверов в каждом, обязаны знать что это за приблуда.

shalom_ ★★
()
Ответ на: комментарий от shalom_

Он и локально для распараллеливания на одном процессоре может использоваться. Просто MPI - это, пожалуй, самый распространённый интерфейс обмена данными между процессами в параллельном программировании на C и C++.

grem ★★★★★
()
Ответ на: комментарий от fardok

Ну так на суперкомпьютерах обычно через MPI все и крутится.

pandrey ★★
()
Ответ на: комментарий от shalom_

Это можно использовать и на современных многоядерных процессорах.

pandrey ★★
()
Ответ на: комментарий от Gonzo

Хоть бы указали, что это и с чем его едят…

Прогуливал курс по параллельным вычислениям?

Udacha
()

В новости не хватает простого момента: что это такое и зачем нужно :-)

Честно говоря, и гугл не шибко помог, поэтому вопрос к знатокам: это просто некоторый стандарт имплементации IPC?

GFORGX ★★★
()
Последнее исправление: GFORGX (всего исправлений: 1)
Ответ на: комментарий от Pinux001

Ты просто взгляни на возмущенных - сплошная перепись неосиляторов же :)

Да откуси ты уже наконец это ухо и успокойся :)
PS: «неосилятор»... Ценить время надо, неосилятор, блинн

Windows ★★★
()
Последнее исправление: Windows (всего исправлений: 1)
Ответ на: комментарий от gns

Ну в данный момент ничего, т.к. сейчас новый код пишу (впрочем, для тех же задач). А до этого кинетику низкотемпературной плазмы, PiC+MCC.

thunar ★★★★★
()
Последнее исправление: thunar (всего исправлений: 1)
Ответ на: комментарий от thunar

Извини, это какой-то форк ветки получился. Там коллега rustamych говорил о символьных вычислениях. И как, MPI-ем параллелить пробовали? Вроде, все эти аля-монте-Карло-методы хорошо параллелятся. Хотя, я тут совсем не в теме, прочитал три ссылки по диагонали в поисках знакомых слов.

gns ★★★★★
()
Ответ на: комментарий от gns

о символьных вычислениях. И как, MPI-ем параллелить пробовали?

Если честно, не знаю задачи в которых нужно параллелить символьные вычисления. Это неверное нужно только каким ни будь хардкорным математикам. Или, возможно при кодогенерации стапицот численных схем ..дцатого порядка, такое лучше AntonI спросить.

монте-Карло-методы хорошо параллелятся

Ну эти-то да. Когда большая задача можно в два уровня: на много нод-процессов, а внутри каждого процесса ещё на много потоков. Ну, или, если на GPU, то вообще три уровня получается.

thunar ★★★★★
()
Последнее исправление: thunar (всего исправлений: 1)
Ответ на: комментарий от thunar

Ну вот как раз идея параллелить символьные вычисления и не обсуждалась. Ибо никак. Если только какая-то сложная графовая грамматика на лесе графов, но тут я только фантазировать могу. Вообще символьный пакет GAP (который про алгебру, графы и прочее такое) считает довольно долго. Ну терпимо, но долго.

gns ★★★★★
()
Ответ на: комментарий от rustamych

Я тут в другом контексте про GAP вспомнил, это такой пакет вычислений в области алгебры и прочей дискретной математики, так он вот такую штуку умеет — https://openmath.org/standard/scscp/

Может этим попараллелить твои задачи получится? Много кто из математических пакетов этот протокол знают.

gns ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.