LINUX.ORG.RU

Сообщения buddie

 

sky2 rx error

Материнская плата Intel SE7520BD2, интегрированная сетевая карта

05:00.0 Ethernet controller: Marvell Technology Group Ltd. 88E8050 PCI-E ASF Gigabit Ethernet Controller (rev 17)
Subsystem: Intel Corporation Unknown device 5021
Flags: bus master, fast devsel, latency 0, IRQ 223
Memory at fcefc000 (64-bit, non-prefetchable) [size=16K]
I/O ports at cc00 [size=256]
Expansion ROM at fcec0000 [disabled] [size=128K]
Capabilities: [48] Power Management version 2
Capabilities: [50] Vital Product Data
Capabilities: [5c] Message Signalled Interrupts: 64bit+ Queue=0/1 Enable+
Capabilities: [e0] Express Legacy Endpoint IRQ 0
Capabilities: [100] Advanced Error Reporting

driver: sky2
version: 1.21
firmware-version: N/A

Settings for eth0:
Supported ports: [ TP ]
Supported link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Half 1000baseT/Full
Supports auto-negotiation: Yes
Advertised link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Half 1000baseT/Full
Advertised auto-negotiation: Yes
Speed: 1000Mb/s
Duplex: Full
Port: Twisted Pair
PHYAD: 0
Transceiver: internal
Auto-negotiation: on
Supports Wake-on: pg
Wake-on: d
Current message level: 0x000000ff (255)
Link detected: yes

Несколько лет работает нормально, правда один-два раза в сутки в логах появлялось:

Aug 27 11:49:03 repository kernel: sky2 eth0: receiver hang detected
Aug 27 11:49:03 repository kernel: sky2 eth0: disabling interface
Aug 27 11:49:03 repository kernel: sky2 eth0: enabling interface
Aug 27 11:49:07 repository kernel: sky2 eth0: Link is up at 1000 Mbps, full duplex, flow control both

Однако сегодня (впервые!) проявилась другая бяка:

Aug 27 10:48:22 repository kernel: sky2 eth0: rx error, status 0x5ea0002 length 1514
Aug 27 10:59:36 repository kernel: sky2 eth0: rx error, status 0x1500002 length 336
Aug 27 11:01:49 repository kernel: sky2 eth0: rx error, status 0x6c0020 length 108
Aug 27 11:02:06 repository kernel: sky2 eth0: rx error, status 0x1ea0020 length 490
Aug 27 11:13:29 repository kernel: sky2 eth0: rx error, status 0x4400020 length 1088
Aug 27 11:24:03 repository kernel: sky2 eth0: rx error, status 0x5ea0002 length 1514
Aug 27 11:34:04 repository kernel: sky2 eth0: rx error, status 0x4c10020 length 1217
Aug 27 11:43:08 repository kernel: sky2 eth0: rx error, status 0x5ea0002 length 1514

После такого рода сообщений как правило идет вис сетевого интерфейса на 0,5-1,5 минуты, затем линк восстанавливается.

Что это может быть? Патчкорд менял. Порт в свитче менял. Питание и сервера и свитча идет через UPS.

Средняя загрузка линка - 140Mbps up, 30Mbps down

>>>

buddie
()

Дикий udev

Работает сервер под CentOS 4.4x86. Все было прекрасно, аптаймы месяцами. Но в один прекрасный момент заметил я, что что-то медленно на него файлы копируются по самбе. Пошел смотреть и поражаюсь: в системе крутится более тысячи процессов (обычно - 200-300), причем udev сожрал дикое количество процессорного времени, а подавляющая масса процессов это: /bin/sh /sbin/hotplug uids Что может быть - ума не приложу. В системе ничего не менялось, кроме как я подключил вчера USB сетевую карту (D-Link E100), чтобы WiFi клиенты висели на отдельном интерфейсе. НО! Копирую-то я файлы по обычному, проводному Ethernet-у. У кого крыша съехала? Где крутить?

>>>

buddie
()

Postfix и юзеры

Есть сервер под CentOS 4.4. Крутится postfix и samba. Аккаунты пользователей храняться в LDAP: для postfix-а в ou=MailUsers..., для самбы - в ou=DomainUsers.

Такая ситуация: хочу, чтобы почта ходила только для аккаунтов в /etc/passwd и ou=MailUsers, а реально на текущий момент ходит и для доменных аккаунтов.

Найти с ходу, какое волшебное слово надо сказать postfix-у я не нашел :( Куда смотреть?

>>>

buddie
()

Intel Pro/1000 & iperf

Наконец-то дошли руки протестить линк между серверами:
1. Сервер А: мать на se7501, 2*Xeon, Intel Pro/1000 MT Server adapter (установлен в PCI-X/133)
2. Сервер Б: мать на i915, 1*P4HT, Intel Pro/1000 MT Desktop adapter (установлен в PCI-E/x16)
3. Прямой "фирменный" патч-корд 5е напрямую в сетевые.

Постановка эксперимента:
А: iperf -s
Б: iperf -c А -i 1 -t 8 -d

Результаты:
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
------------------------------------------------------------
Client connecting to А, TCP port 5001
TCP window size: 64.0 KByte (default)
------------------------------------------------------------
[ 4] local Б port 57790 connected with А port 5001
[ 5] local Б port 5001 connected with А port 48439
[ ID] Interval Transfer Bandwidth
[ 5] 0.0- 1.0 sec 6.65 MBytes 55.8 Mbits/sec
[ 4] 0.0- 1.0 sec 103 MBytes 865 Mbits/sec
[ 4] 1.0- 2.0 sec 107 MBytes 896 Mbits/sec
[ 5] 1.0- 2.0 sec 18.8 MBytes 158 Mbits/sec
[ 5] 2.0- 3.0 sec 6.37 MBytes 53.4 Mbits/sec
[ 4] 2.0- 3.0 sec 109 MBytes 913 Mbits/sec
[ 5] 3.0- 4.0 sec 6.45 MBytes 54.1 Mbits/sec
[ 4] 3.0- 4.0 sec 112 MBytes 940 Mbits/sec
[ 4] 4.0- 5.0 sec 110 MBytes 927 Mbits/sec
[ 5] 4.0- 5.0 sec 5.26 MBytes 44.1 Mbits/sec
[ 4] 5.0- 6.0 sec 110 MBytes 922 Mbits/sec
[ 5] 5.0- 6.0 sec 9.85 MBytes 82.6 Mbits/sec
[ 4] 6.0- 7.0 sec 109 MBytes 916 Mbits/sec
[ 5] 6.0- 7.0 sec 10.9 MBytes 91.2 Mbits/sec
[ 4] 7.0- 8.0 sec 111 MBytes 934 Mbits/sec
[ 5] 7.0- 8.0 sec 2.19 MBytes 18.3 Mbits/sec
[ 4] 0.0- 8.1 sec 872 MBytes 908 Mbits/sec
[ 5] 0.0- 8.1 sec 67.3 MBytes 70.0 Mbits/sec

Судорожно чешу репу и думаю, что же крутить.

>>>

buddie
()

Производительность ввода/вывода

Есть сервер на 2*Xeon + 4Gb RAM + 8*SATA в RAID-10. На нем крутится некая программа, которая читает/пишет блоки в 4-8k в один поток в файл размером порядка 100Gb. Изначально этот большой файл размещался на файловой системе (ext3) и производительность работы (т.к. счета мало, то в основном все упиралось в ввод/вывод) вообщем-то устраивала. Потом пришла в голову мысль "а не убрать ли не нужную прослойку в виде файловой системы?". Решил попробовать - создал средствами lvm логический раздел, сдампил на него содержимое файла и запустил в работу. В итоге - производительность наоборот упала. Я так понимаю, что вместе с файловой системой я лишился и кэша. Что делать? Возвращаться обратно на FS или есть какие-либо способы прикрутить к raw devices использование кэша? Или реализовывать кэширование программно в своем приложении? Сменить SATA на SCSI не предлагать ;) т.к. в будущем объем данных увеличится до пары терабайт, а на SCSI это будет стоить неслабых денег.

>>>

buddie
()

Software RAID на Intel SE7520BD2

Имеется материнская плата Intel SE7520BD2 и RAID контроллер Intel SRCS14L, все это работает под RHEL4. 1 SATA винчестер подключен к одному из портов контроллера, второй - к порту на матери. Меряю скорость чтения с каждого из устройств - получаю порядка 55-60 Мб/сек. Объединяю их в софтварный RAID-1, меряю скорость чтения с массива - получаю порядка 60 Мб/сек (чтение параллелится, с каждого из винчестеров читается порядка 30 Мб/сек). Почему так мало и где крутить? Естественно синхронизация уже прошла, скорость записи в массив порядка 50 Мб/сек.

buddie
()

RSS подписка на новые темы