LINUX.ORG.RU

Спецкабель нужен - хотя бы потому что там гнезда УСБ типа А и типа В/

2sS - Насчет полосы - я же писал - схема каждый к каждому - а не 1 хаб - в таком случае деления полосы и не будет (я так думаю)

2anonymous - а зачем вообще в принципе тебе сеть типа IP ???? ведь этакая _локалка_ она строго ограничена по количеству машин - проще говоря ИП стек там как корове седло - так как нужен _транспорт_ а не маленький интернет 8)

2Irsi - чтоб использовать файр вайр - нужно его _купить_ - в условии задачи собрать из дешевых старых компонентов

хотя почему бы не применить USB 1.0/1.1 - скорости 12 мегабит для МЕЖПРОЦЕССНОГО взаимодействия хватит - потому что это таки не суперкомп с скоростной магистралью а только КЛАСТЕР

Сильно не пинать - я только сегодня к вам присоединился 8)) раньше был безликим ононимом

karlson
()

Выбил комп для кластера - начинаю делать

есть еще такой проект LVS - http://www.linuxvirtualserver.org/ - организуются в полноценные кластеры линукс системы

karlson
()
Ответ на: комментарий от Irsi

2Irsi
> чтоб делать сеть на USB для начала нужны специальные кабели, стоимостью ~50$ за штуку...
Ты чего курил ;) ? 1-2 euro стоят USB кабеля... (разглядывая свой кабель от цифровика)

sS ★★★★★
()

Кстати насчет сеток на USB - я еще в прошлом году такую
фигню видел в магазине (в германии) - там что то типа USB шной платы
и кабелей - наверное на эти поделия ссылки в Inet должны быть ...
имя изготовителя и точное название девайса могу уточнить - токо
все это поделки для дома пионеров ImHO ;))

sS ★★★★★
()
Ответ на: комментарий от karlson

2karlson
> Насчет полосы - я же писал - схема каждый к каждому - а не 1 хаб - в таком случае деления полосы и не будет (я так думаю)
Лишние 3 USB контроллера как будешь припаивать к плате ? :)

>хотя почему бы не применить USB 1.0/1.1 - скорости 12 мегабит для МЕЖПРОЦЕССНОГО взаимодействия хватит - потому что это таки не суперкомп с
>скоростной магистралью а только КЛАСТЕР

Ты когда - нибудь пробовал кластер на простой 10 мегабитке (eth)
Работать то он работает но вот скорость ... я плакаль :)

ImHO минимум для среды передачи (для учебных целей)
это 100TX

sS ★★★★★
()

На счет кабелей для USB - да кабель host2device действительно стоит 1-3$... А вот кабель host2host стоит 50$ ибо это действительно девайс. Там точно есть оптронная развязка и еще какая-то фигня. :) Стандартный USB не может работать h2h, только h2d... Почему и что должно быть в таком кабеле обсуждалось в конфах iXBT, а я если честно особо не ковырял...

Irsi
()

2sS - Подожди, а разве на мамах не встроено 2-3 контроллера USB (вроде встроено - хотя я могу ошибаться). Да - очевидно про то что скорость 12 мегабит маловата - ты прав (может быть отчасти) - по серьезному бы 12 мегаБАЙТ маловато но USB это хорошо - потому что интегрировано чаще чем сетевые

2Irsi - Вы тоже правы - host2host это вам не host2dev - именно так 8) Сделать развязку своими ручками думаю можно - ради суперкомпа можно и не такое сделать 8)) - давайте придумаем USB развязку - технари откликнитесь 8)

karlson
()

2EasyReader - по скази вообще сказка! скорость недетская - опять 1 но - контроллеры скази???? где брать? зато если можно было бы (теоретически) навесить на ту же шину еще и диски - вооще писк/

Может кто придумает что для шины PCI - она уж точно везде есть и скорость 33 метра - совсем не плохо - во всяком случае лучше чем любая сетевая

karlson
()

Вдогонку: http://www.agelectronics.co.uk/tool_lx.html

The popularity of the Linux in scientific computing and embedded soft real-time is exploding. As well supporting Linux as a host OS, we have now released a full port of version 2.2 of the Linux kernel to our PowerPC≥ products, including high performance TCP/IP over PCI for easy multiprocessing support. Our Linux support is free and open source: there are no purchase charges, no runtime license costs and no maintenance fees for updates. Get the latest version below or visit our download page. The Workstation on a PCI Card When running Linux, a PowerPC≥ board looks exactly like a diskless Unix workstation - including support for a serial terminal (there's even a virtual serial terminal implemented as a sideband of the PCI networking). Users can construct a workstation cluster in a box and get excellent networking performance without buying NICs or switches. The TPE3 can also accommodate a standard PMC module - for example a SCSI interface for a dedicated disk, or a fast LAN interface for scalability in larger systems. High Performance Networking over PCI A key part of our Linux strategy has been to develop a high performance implementation of TCP/IP over PCI, using the built-in PCI DMA and I2O hardware. When tested with the classic netperf network performance benchmark, this delivers over 40MBytes/Sec for TCP throughput and below 40uSec for TCP latency. At the UDP level the latency is an exceptional 26uSec. The MPI parallel programming API is also supported, and we have measured application level performance of over 37Mbytes/Sec.

chumpa
()

2chumpa

Так это ж здорово (теоретически) - до 40 метров/сек / одно смущает девайсы то кульные - только стоят они бы как сказать - дорого, что ли - лучше я возьму Fiber 8)

Вот соединить бы pci2pci - придется кроме проводов еще и микросхему пзу ставить на 256 байт (конфигурационная) - но ее наверное можно сделать 1 на всех ! 8)

пробовать надо !

karlson
()

Люди, программисты, технари 80

Предлагаю следующий подвиг:

1) Создаем ресурс посвященный проблеме PCI2PCI

2) Сообща формируем задачу и пути ее решения

3) Решаем проблему путем создания крохотного девайса для PCI2PCI

Готов работать на этом фронте/ присоединяйтесь MParygin@kkb.kz Все кто примет участие конечно попадут в анналы (так вроде) истории создания Линукса ,,,

karlson
()

2karlson: Наверное, pci2pci просто не имеет рынк пока ещё ;-( Слишком мало кластеров самосборных пока.

chumpa
()

2chumpa - их действительно мало 8( почитал спецификацию PCI 2.1 - в принципе ничего сложного нет - нужен bridge pci to pci - реализовать его можно сотней проводов и парой - тройкой микросхем - организовав общий буфер памяти - вся задача сводится к : преобразовывать 1 команду из 4 бит (управляющие сигналы) в другую (чтение <> запись) зато сам факт - минимум 120 мегабайт в секунду ! ко всему ее лучше ложить как проводку под матплатами

karlson
()
Ответ на: комментарий от karlson

2karlson
> Подожди, а разве на мамах не встроено 2-3 контроллера USB (вроде встроено - хотя я могу ошибаться).
На современных обычно 2 на старых обычно один - посчитай сколько нужно
будет для fullduplex по схене каждый с каждым ...

sS ★★★★★
()

У меня есть PCI - PCI, на одной микрухе EP20K160EQC208-1 :) Но из-за конструктива - не очень катит :( Не все матеря можно воткнуть. Можно и "звёздочку" из PCI-ев сделать, а кластер из Tyan-Thunder :) Их на е-бае можно за 60-200 буказоидов купить :)

asoneofus
()

Извращенцы... :) На Tyan-Thunder имеется интергрированный Ethernet - нафига огород городить? :)

Irsi
()

PCI-to-PCI

Насчет сотни проводов и "какой-то матери" для организации взаимодействия по PCI - это конечно круто сказано :) Для реализации таких вещей обычно покупают уже готовое изделие, например, Intel 21554 или 21555. Цена ~ $30 (можно договориться и дешевле, если покупать от 10000 штук). А работают такие "совокупленные" машины действительно быстро.

anonymous
()
Ответ на: PCI-to-PCI от anonymous

Ну, не совсем так. Голая микросхема никому не нужна. А вот Intel PCI-to-PCI Bridge Eval Board на такой микросхеме действительно решает проблему (правда нужно еще небольшой переходничек склепать), но цена платы > 700уе. Такие дела.

anonymous
()

Теперь становится понятным, что самое _дешёвое_ решение -- 10/100 Mbit Ethernet в соединении узлов кластера "каждый со многими", чтобы не городить хабы и увеличить скорость.

chumpa
()

chumpa: а свичь поставить не пробовали? :)
P.S. Какие в жопу хабы???

Irsi
()

Люди а нахрена этот pci2pci? Грядет же Hyper Transport от AMD универсальная шина, вот на нее все и будете вешать.

anonymous
()

2Irsi: на ссылке "Подробности" в тексте новости чётко сфотографирован хаб.

А нахрена свич? пусть кластер будет отдельным сегментом.

chumpa
()
Ответ на: комментарий от anonymous

> Грядет же Hyper Transport от AMD универсальная шина, вот на нее все и будете вешать.

Основная задача -- использовать старую ~~бесплатную комплектуху, разнокалиберную, а не покупать что-то новое под кластер. Если хочется "быстро", то самодельно скорее scsi2scsi предпочтительней делать, чтобы и дисковую подсистему вынести в отдельный ящик, как положено...

chumpa
()

То IRSI их там даже два, можно без хаба-свитча роутить :D

Гипертранспорт - ограничение по длине, так что грядёт всё только на локальной материнке... Да и к тому-же новой :). А речь идёт о старых.

Можно вообщето и не PCI-PCI, а какойнить shared memory девайс на плисуёвине + LVDS сваять... Вероятно, уписаться буказоидов в 50-70 можно :)

asoneofus
()
Ответ на: комментарий от asoneofus

>>Можно вообщето и не PCI-PCI, а какойнить shared memory девайс на плисуёвине + LVDS сваять... Вероятно, уписаться буказоидов в 50-70 можно :)

Из своего опыта скажу - вероятно уписаться можно :)), но в 50-70 уе уложиться врядли :(

anonymous
()

Ну если из старья то можно и LPT пачку задействовать (насколько IRQ хватит)

sS ★★★★★
()

LPT для очень бедных, старые 10 мегабитные эзернеты проще найти

chumpa
()

2chumpa: :))) И провокационный крик - RS-232 рулез форева! ;)

Irsi
()

Люди - кажется мне что PCI2PCI = всетаки выход - посудите сами

1) - USB хабов действительно мало - обычно 1-2 - да и скорость не того 8( 2) Гипертранспорты и тому подобные вещи отпадают за новизной и дороговизной 3) Ради кластера стоит делать минимальное по стоимости и максимальное по скорости решение - отпадают lpt, rs232, usb, net (под вопросом)

Из этого следует :

1) нужен bridge онозначно или некое подобие шаре мемори на пси шине 2) делается это на EP20K160EQC208-1 или 21554 или 21555

Вопрос - как - подскажите как это сделать - я же все равно раздолбаю все паяльником и буду делать шаре мемори на микросхемах ///

karlson
()
Ответ на: комментарий от karlson

Делаешь плату с двумя PCI-разъемами. На плате микросхема моста и какое-то колличесиво обвязки. Втыкаешь плату одним концом в одну материнку, другим в другую. Потом пишешь драйвера и сопутствующий софт. Вот и все - ты крут и могуч. Желаю успехов. Если ты такое чудо сотворишь, то мы с удовольствием с тобой заключим контракт. Мы пока решаем эту проблему при помощи Интеловской ЕвалБоард.

anonymous
()
Ответ на: комментарий от karlson

>Из этого следует :

>1) нужен bridge онозначно или некое подобие шаре мемори на пси шине 2) делается это на EP20K160EQC208-1 или 21554 или 21555

На EP20K160EQC208-1 действительно можно сделать мост, но не забывайте, что это - ПЛИСка, к ней еще прошивку надо написать.

Про USB:

Через USB 1.1 действительно нельзя соединить два компа. Но можно попробовать сделать мост с помощью двух микросхем FT2U245. (Описание на сайте http://www.ftdichip.com), Причем драйвера для них уже есть в Линуксе. По стоимости должно вложиться в 20$

anonymous
()

2anonymous: 20$ это стоимость адаптереа FireWire типа "пойти и купить"... Про Ethernet я и не говорю... Вообщем USB явно экономически неоправдано...:)

Irsi
()

А не организовать ли вас русскоязычный ресурс про кластеры, а то у меня с английским плохо ;)

anonymous
()

2 anonymous - А что - вполне - если кто нибудь даст хостинг с ПХП или ЖСП - я согласен поддерживать русский ресурс по кластерам!.

Вопрос только в хостинге....

Karlson - пароль правда забыл 8(

anonymous
()

PCI, PCI!, а hotplug как? Так что Ethernet или SCSI это самое то, а без hotplug-а такой кластер на х.. не нужен. А хостинг могу дать, под данный проект.

anonymous
()

А вот здесь (http://www.devdrv.com/shsmod/index.htm) RS-232 со скоростями более 115 Кбод и ни каких вам дополнитеьных плат к маме не надо. Хотя IP over SCSI самый рулез и hotplug и 8 девайсов, но больно дорого Controller PCI ULTRA SCSI Tekram DC-395U за 31$ А вот Controller PCI IEEE 1394 2port-ext/1port-int <Lucent FW323> всего за 16$, может кто знает где есть IEEE-HUB менее чем за 50 у.е?

zoonoid
()

Согласен помогать в ресурсе по кластерам по мере освоения это технологии :)

IvanZ
()

Myrinet хотя бы надо использовать для кластера вместо всяких Fast Ethernet и т.д. (delay - в 10 раз меньше), а то на езернет-кластере тормозят проги :(

anonymous
()

2anonymous - Кто обещал хостинг - отзовитесь на MParygin@kkb.kz - будем делать русскоязычный ресурс по кластерам

2IvanZ - потребуется ваша помощь - тоже отзовитесь на тот же адрес пожалуйста 8)

Если все будет хорошо - можно будет поприветствовать новы ресурс 8)

karlson

karlson
()
Ответ на: комментарий от karlson

Ну, замутить 2-х сторонню оптронную развязку-не проблема. Я так отвязывал измерителтный АЦП от компа. Там по большому счету будет (при N контактов) 2*ы N широкополосных оптопар и 2*N транзисторных ключей на КТ3127 (или в этом духе) ОУ не пойдут по причине низкой критической частоты(порядка 100 кГц то есть 100 кБит) Вот и все. Осталось определить параметры портов(входное сопротивление и вольтаж, а так же максимальный ток нагрузки). Если порт весьма слаботочный то возможно придется брать КПшки или внешнее питание для групп ключей(то есть для каждой группы например +5 вольт от своей стороны) Так что дело за расчетом, что в общем то несложно, только просто пока лень/нет времени.

angels
()
Ответ на: комментарий от karlson

Через shared memory через PCI. Только кто возьмется проектировать ? 33 МГц как-никак. Микрульки надо подбирать, дрова писать. Меня только в свое время на ISA хватило.

angels
()
Ответ на: комментарий от anonymous

2 anonymous(2002-09-17 13:19) ПЛИСы идут лесом, полем и вообще. Я под них программить не умею, да и не горю желанием учиться. Тем более если они OTP то можно вообще разориться. Надо спонсоров искать, а еще лучше PIC18Fxxx взять. Они хоть флешовые и более 33 МГц тактовые частоты позволяют. Для заинтересованных www.microchip.com. Я под них писал много, на АСМе и С. Есть С++ но не извращенец-писать под микроконтроллеры на С++ :-)

angels
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.