LINUX.ORG.RU
ФорумAdmin

Настройка университетского кластера

 , , ,


1

1

Имеется кластер, 5 нодов, не очень мощный, скорее для ознакомительных целей (характеристик пока не знаю, как узнаю - сразу сообщу).

Задача - на кластере должен быть Wi^WОффтоп Server (для какой-то дисциплины, связанной с грид или что-то типо того), также на кластере должен быть linux (наверное Debian), который будет использоваться в первую очередь как файлопомойка + я буду пытаться настроить что-то полезное, так как до меня этим никто не занимался (планируется dns, прокси, dhcp, web-сервера + буду развивать научуную работу по виртуализации).

Собственно вопрос: как сделать так, чтобы была и винда и linux, чтобы они работали одновременно? Это будет виртуализация, но какая? То ли винда под linux, то ли наоборот, какую схему виртуализации и программные средства использовать в таком случае? Может быть это можно как-то иначе сделать, грамотнее?

Жду советов.

Приветствуются полные ответы, еще лучше если есть подобный опыт, а еще лучше с указанием полезных материалов.

★★★★★

Последнее исправление: Amet13 (всего исправлений: 2)

Чисто моё мнение:

  1. Оффтоп в топку ибо http://www.top500.org/statistics/list/
  2. GRID и кластер, это разные вещи. Нужен GRID под оффтоп, то в любом комп. классе настраивай HTCondor. Легко и эффективно.
  3. HPC ==> Виртуализация в топку.
  4. «5 нодов» - увы, но никаких систем распространения образов смысла ставить нет (PXE в топку). По этому ставим руками и изучаем технологии.
  5. ОС: CentOS и не выделываемся, тебе ещё библиотеки ставить.
  6. MPI: mpich, OpenMPI для коммуникаций. Тестируем на HelloWorld и примере вычисления числа Pi. Все остальное не твоя забота.
  7. Система управления заданиями: torque, но это на втором этапе.

Архитектура: Минимально нужны:

  1. управляющий узел
  2. файловое хранилище, монтируемое по NFS
  3. Вычислительные узлы
  4. Две сети: управляющая и вычислительная (по мощнее).

Пример Первые два можно и объединить. Пользователи будут заходить на управляющий узел и ставить с него задания.

AlexVR ★★★★★
()
Ответ на: комментарий от AlexVR

Оффтоп в топку ибо http://www.top500.org/statistics/list/

Мне не нужно. А что они там делать будут они сами наверное не знают.

Блин, та я тупо элементарно характеристик не знаю, потому что все порастеряли поломали и т.д.

Без исходных данных я даже понятия не имею как разрабатывать стратегию использования и инсталляции.

Если я узнаю все исходные данные, хочу обсудить дальше как уже не абстракно думать, а уже конкретно по шагам, что да как.

Amet13 ★★★★★
() автор топика

И ещё, пять узлов будет мало для группы студентов, вы тупо не сможете провести лабораторные, один-два человека могут забрать все процессорное время в течении пары. Лучший выход это комп.классы. Ставь mpich. Учитывая, что минимально у вас сейчас должно быть по два ядра на компьютер, спокойно можно выдать курс по программированию на MPI, дав возможность запуска программы на паре соседних компьютеров.

И вообще говоря надо конкретно понимать, что вы будете преподавать (MPI, GRID, OpenMP, библиотеки вычислительной физики/молекулярной динамики/...)

AlexVR ★★★★★
()
Ответ на: комментарий от AlexVR

Лично мне этот кластер нужен для исследования виртуализации.

А как людям объяснишь, что мало всего будет?

Amet13 ★★★★★
() автор топика
Ответ на: комментарий от Amet13

Лично мне этот кластер нужен для исследования виртуализации.

И что это тебе даст. В данном аспекте, что один, что пять серверов, ничего не меняют. Особенно без хорошего файлового хранилища. Хочешь изучать виртуализацию: изучай OpenStack, но тогда никакого HPC

И у ты должен выбрать одно из двух: или HPC или виртуализацию.

GRID - это точно комп.классы

AlexVR ★★★★★
()
Ответ на: комментарий от AlexVR

А если один нод оставить для линукса (виртуализации), а на всех остальных, они на винде будут свои hpc считать. Так пойдет?

Мне для виртуализации вот эта вся распределенность не нужна, мне нужна железка, которая будет помощнее моего единственного и рабочего ноута. Надеюсь Вы поняли, что я хочу.

Amet13 ★★★★★
() автор топика
Последнее исправление: Amet13 (всего исправлений: 1)
Ответ на: комментарий от Amet13

Я тебе еще раз говорю из собственного опыта: забудьте об HPC на винде. Такого нет. Windows HPC - это бутафория.

И вот тебе ряд конкретных, проверенных многими годами фактов:

  1. Нужен HPC для учебного процесса: сгодятся обычные компьютеры в классах. Нужны только Visual Studio и MPICH. Можно сразу скачать 1 2
  2. Нужен HPC для вычислений: смотри выше
  3. Нужен GRID: задействуй HTCondor в комп.классах
  4. Нужна виртуализация: изучай OpenStack
AlexVR ★★★★★
()
Ответ на: комментарий от Amet13

То есть это тот самый вариант, когда его устанавливаешь на одну ноду, на второй врубаешь загрузку по сети, и все это работает как одно?

SSI кластер в BCCD к сожалению не поддерживается, получишь только MPI и настроенные тулзы администрирования.

SSI кластер в линуксе закончился на ядре 2.6 в альфа состоянии и больше его там не будет!

http://midnightcode.org/projects/chaos/

http://kerrighed.org/wiki/index.php/Download

http://sourceforge.net/p/ssic-linux/feature-requests/60/ :(

multihead
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.