LINUX.ORG.RU

Сообщения gard

 

Шейпер с приоритезацией трафика и ограничением скорости для одного/нескольких vlan

Форум — Admin

Здравствуйте! Хочу спросить совета. Есть локальная сеть на несколько vlan на одном lan-интерфейсе. Все за NAT. Нужно обрабатывать трафик, идущий в сеть с локального интерфейса по приоритетам: в первую очередь голосовой и видео-трафик с порта 1935 и с интернет-узла скажем connect.adobe.ru. Затем обрабатывается трафик с портов 80/443, а в последнюю очередь - весь остальной. Также требуется для одного из vlan'ов жестко ограничить скорость.

У меня такая мысль. Сделать приоритезацию на физ. интерфейсе:

#!/bin/bash

lan_if="lan"
tc qdisc add dev $lan_if root handle 1: prio bands 3 priomap 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2

tc qdisc add dev $lan_if parent 1:1 handle 10: pfifo
tc qdisc add dev $lan_if parent 1:2 handle 20: pfifo_fast
tc qdisc add dev $lan_if parent 1:3 handle 30: pfifo_fast

tc filter add dev $lan_if protocol 802.1q parent 1: prio 1 u32 match ip sport 1935 0xffff flowid 10:
tc filter add dev $lan_if protocol 802.1q parent 1: prio 1 u32 match ip src $(dig +short connect.adobe.ru) flowid 10:

tc filter add dev $lan_if protocol 802.1q parent 1: prio 2 u32 match ip sport 80 0xffff flowid 20:
tc filter add dev $lan_if protocol 802.1q parent 1: prio 2 u32 match ip sport 443 0xffff flowid 20:

А скорость для отдельного vlan ограничить уже прямо на vlan-интерфейсе, скажем так:

tc qdisc add dev vlan102 root tbf rate 2mbit latency 50ms burst 1540

Нормальна ли такая схема?
Не хочется городить огород с HTB, потому что с lan-интерфейса (а точнее с созданных на нем vlan-интерфейсов) идет гигабитный, а не только интернет-трафик в локальную сеть.

gard
()

Сообщение в логе: «ipv4: Neighbour table overflow», жуткие тормоза сети

Форум — Admin

Здравствуйте! Прошу не кидаться камнями, но помогите понять что за ерунда творится. Есть сервер-шлюз на Debian, 4 сетевых карточки. В лог спонтанно могут повалиться сообщения вида:

Aug 28 12:46:04 gw kernel: [591582.812889] ipv4: Neighbour table overflow.
Aug 28 12:46:04 gw kernel: [591582.824085] ipv4: Neighbour table overflow.
Aug 28 12:46:04 gw kernel: [591582.834822] ipv4: Neighbour table overflow.
Aug 28 12:46:04 gw kernel: [591582.845219] ipv4: Neighbour table overflow.
Aug 28 12:46:04 gw kernel: [591582.855767] ipv4: Neighbour table overflow.

Самое странное, что после выдергивания кабеля провайдера (интернет по PPPoE) - все нормализуется. Выдергивание кабеля, идущего в локальную сеть, ничего не дает, в лог по прежнему сыплются эти сообщения.

Может быть я просто не вижу где у меня ошибка. Вот текущие настройки сети (ppp0, ppp1 - интернет-соединения через wan1 и wan2, crp - доступ к КИС, ppp5 - доступ в КИС):

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: wan1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 9c:b6:54:bb:aa:8c brd ff:ff:ff:ff:ff:ff
    inet 192.168.87.2/24 brd 192.168.87.255 scope global wan1
    inet6 fe80::9eb6:54ff:febb:aa8c/64 scope link 
       valid_lft forever preferred_lft forever
3: wan2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 9c:b6:54:bb:aa:8d brd ff:ff:ff:ff:ff:ff
    inet 192.168.89.2/24 brd 192.168.89.255 scope global wan2
    inet6 fe80::9eb6:54ff:febb:aa8d/64 scope link 
       valid_lft forever preferred_lft forever
4: crp: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:15:17:de:21:00 brd ff:ff:ff:ff:ff:ff
    inet 172.16.10.2/24 brd 172.16.10.255 scope global crp
    inet6 fe80::215:17ff:fede:2100/64 scope link 
       valid_lft forever preferred_lft forever
5: lan: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:15:17:de:21:01 brd ff:ff:ff:ff:ff:ff
    inet6 fe80::215:17ff:fede:2101/64 scope link 
       valid_lft forever preferred_lft forever
6: vlan101@lan: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP 
    link/ether 00:15:17:de:21:01 brd ff:ff:ff:ff:ff:ff
    inet 192.168.2.1/24 brd 192.168.2.255 scope global vlan101
    inet6 fe80::215:17ff:fede:2101/64 scope link 
       valid_lft forever preferred_lft forever
7: vlan102@lan: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP 
    link/ether 00:15:17:de:21:01 brd ff:ff:ff:ff:ff:ff
    inet 192.168.3.1/24 brd 192.168.3.255 scope global vlan102
    inet6 fe80::215:17ff:fede:2101/64 scope link 
       valid_lft forever preferred_lft forever
8: vlan103@lan: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP 
    link/ether 00:15:17:de:21:01 brd ff:ff:ff:ff:ff:ff
    inet 192.168.4.1/24 brd 192.168.4.255 scope global vlan103
    inet6 fe80::215:17ff:fede:2101/64 scope link 
       valid_lft forever preferred_lft forever
63: ppp0: <POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP> mtu 1492 qdisc pfifo_fast state UNKNOWN qlen 3
    link/ppp 
    inet xxx.xxx.232.8 peer 10.128.0.0/32 scope global ppp0
91: ppp5: <POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP> mtu 1456 qdisc pfifo_fast state UNKNOWN qlen 3
    link/ppp 
    inet 10.236.13.11 peer 10.128.0.0/32 scope global ppp5
92: ppp1: <POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP> mtu 1460 qdisc pfifo_fast state UNKNOWN qlen 3
    link/ppp 
    inet xxx.xxx.11.5 peer xxx.xxx.0.1/32 scope global ppp1

Вот роуты:

default dev ppp0  scope link 
10.0.0.0/8 via 10.236.13.11 dev ppp5 
10.0.0.0/8 via 172.16.10.2 dev crp  metric 30 
10.128.0.0 dev ppp0  proto kernel  scope link  src 5.140.232.8 
10.128.0.0 dev ppp5  proto kernel  scope link  src 10.236.13.11 
172.16.0.0/16 via 172.16.10.2 dev crp  metric 30 
172.16.10.0/24 dev crp  proto kernel  scope link  src 172.16.10.2 
xxx.xxx.0.1 dev ppp1  proto kernel  scope link  src xxx.xxx.11.5 
192.168.2.0/24 dev vlan101  proto kernel  scope link  src 192.168.2.1 
192.168.3.0/24 dev vlan102  proto kernel  scope link  src 192.168.3.1 
192.168.4.0/24 dev vlan103  proto kernel  scope link  src 192.168.4.1 
192.168.87.0/24 dev wan1  proto kernel  scope link  src 192.168.87.2 
192.168.89.0/24 dev wan2  proto kernel  scope link  src 192.168.89.2 
xxx.xxx.87.41 dev ppp0  scope link  src xxx.xxx.232.8

Может быть здесь что-то не так?

 ,

gard
()

Подскажите по СКС, верно ли хочу сделать

Форум — General

Здравствуйте уважаемые форумчане! Подскажите нормальна ли планируемая схема.

Есть здание, 2 этажа, длина коридора около 20-25 метров. Примерно по 5-6 кабинетов на этаж. Есть 2 48-портовых комутатора второго уровня. Есть 3 патч-панели по 48 портов в стойку и много настенных пачт-панелей на 12 и 24 порта.

Хочу сделать так. Поставить коммутаторы в стойку, туда же поставить 48-портовые патч-панели. От этих патч-панелей провода будут идти на настенные панели, с обеих сторон провода расшиваются. Получится, что все настенные патч-панели расшиты на панели в стойке.

Клиент будет втыкаться в настенную патч-панель, а соответствующий клиенту порт комммутатора - патчкордом в стоечную патч-панель. То есть каждому клиенту отдельный порт. Схематично:

ПортКоммутатора<--->ПортПатчПанели--------ПортНастеннойПанели<--->Клиент
Нормальная ли схема или делают как то не так?

 

gard
()

Подскажите по форвардингу трафика.. не пойму

Форум — Admin

Всем привет! Может я туплю, но не пойму почему не работает. Клиент имеет адрес 192.168.2.21, default gw для него - шлюз с адресом 192.168.2.1. На шлюзе есть второй интерфейс с адресом 192.168.0.2, а дефолтный роут шлюза ведет на 192.168.0.1. Форвардинг разрешен, но клиентский трафик дальше шлюза не идет. Пинг от клиента до 192.168.0.1 отсуствует, хотя пинг до второго интерфейса шлюза (192.168.0.2) есть.

 ,

gard
()

Подскажите по бэкапу виртуальных машин, lvm, kvm

Форум — Admin

Здравствуйте! Решил создать новую тему, чтобы не писать не по теме в предыдущей теме, простите за тавтологию.

Ситуация: Cервер, два диска, raid1 из двух разделов на этих дисках, lvm-разделы внутри raid. Хост-система установлена в lvm-тома (к примеру lvgroup/boot, vlgroup/swap, lvroup/root). В других томах сидят вирт. машины, к примеру lvgroup/vm1, lvgroup/vm2.

Задача сделать бэкап: в первую очередь вирт. машин, затем - хост - системы. Все вместе - для полного счастья.

Хочу сделать так (запуск ночью, пока все спят):
1) Гости останавливаются, делаются их lvm-снапшоты, которые копируются целиком (побитово?), копируются копии xml-описания машин.
2) Хост-система копируется налету с «грязных» lvm-снапшотов.
3) После всех бэкапов гости запускаются.

Как мне кажется схема очень простая. Нормальна ли она? И пока не представляю где взять место для складирования такого объема данных. Сейчас у меня нет вирт. машин, все работает на железном сервере, который копируется с lvm «грязным» методом, но у меня есть месячный пофайловый бэкап и инкрементальные ежедневные бэкапы. Это позволяет хранить бэкапы за 4-5 месяцев на диске объемом в 500Гб. Если же копировать гостей с lvm просто клонированием (к примеру dd), то тут не напасешься места. Может быть есть какое-то решение инкрементального бэкапа? Как правильно клонировать целые lvm-тома, отданные под гостей с их внутренними разделами и данными на этих разделах?

 , , ,

gard
()

Отказался ставиться grub при обновлении с debian 6 до debian 7

Форум — General

Здравствуйте! Сегодня второй раз симитировал проблему. Суть в том, что после обновления системы наотрез отказывается устанавливаться grub.

На физическом диске создан 1 раздел для raid1 - /dev/md0, на md0 располагается lvm, в которых /boot, swap, /. После обновления получил ошибку установки grub на диск. Текст сообщения:

root@area51:/# grub-install --recheck /dev/sdd
/usr/sbin/grub-setup: предупр: Your core.img is unusually large.  It won't fit in the embedding area..                                                                   
/usr/sbin/grub-setup: ошибка: встраивание невозможно, но оно необходимо, если корневое устройство располагается в RAID-массиве или томе LVM..                            
root@area51:/#     

Вот данные диска, raid и lvm (копировал из chroot):

root@area51:/# fdisk -l /dev/sdd

Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x5d24d072

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1   *          63  1953520064   976760001   fd  Linux raid autodetect

root@area51:/# mdadm -QD /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Tue Aug  5 21:32:14 2014
     Raid Level : raid1
     Array Size : 976628928 (931.39 GiB 1000.07 GB)
  Used Dev Size : 976628928 (931.39 GiB 1000.07 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Wed Aug  6 00:18:11 2014
          State : active, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : area51:0  (local to host area51)
           UUID : 0831798d:e38ac40b:bfc193a7:566bee4d
         Events : 13316

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       0        0        1      removed
root@area51:/# pvdisplay /dev/md0
  --- Physical volume ---
  PV Name               /dev/md0
  VG Name               lvm_group
  PV Size               931,51 GiB / not usable 2,06 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              238466
  Free PE               28726
  Allocated PE          209740
  PV UUID               B8QTw8-MpHA-xLpM-cnjH-aw9k-sdwM-WT1vpT

root@area51:/# vgdisplay lvm_group
  --- Volume group ---
  VG Name               lvm_group
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3424
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                3
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               931,51 GiB
  PE Size               4,00 MiB
  Total PE              238466
  Alloc PE / Size       209740 / 819,30 GiB
  Free  PE / Size       28726 / 112,21 GiB
  VG UUID               2zDXZZ-KSUZ-0nsA-iMfA-LoL2-HAzw-BGTQai

root@area51:/# lvdisplay lvm_group
  --- Logical volume ---
  LV Path                /dev/lvm_group/boot
  LV Name                boot
  VG Name                lvm_group
  LV UUID                oOFhWn-21Kk-YAkt-bpXg-Bx1L-2yZ9-N9bUva
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                492,00 MiB
  Current LE             123
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:3
   
  --- Logical volume ---
  LV Path                /dev/lvm_group/swap
  LV Name                swap
  VG Name                lvm_group
  LV UUID                UzL9tl-0BWN-kyV6-S6wD-wUX8-VwcN-q6hF9F
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 0
  LV Size                3,82 GiB
  Current LE             977
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4
   
  --- Logical volume ---
  LV Path                /dev/lvm_group/root
  LV Name                root
  VG Name                lvm_group
  LV UUID                qy2eUy-RJYa-U63a-fjMV-7zAB-7T8F-CxPz0X
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                815,00 GiB
  Current LE             208640
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:5
   

Сейчас grub выкидывает в recovery mode, восстановить не могу - не получается, хотя указываю prefix и root (по команде ls видны lvm-разделы):

set root=(lvm_group-boot)
set prefix=(lvm_group-boot)/grub

Помогите разобраться как же запустить систему и установить grub. Я по своему незнанию подумал, что grub не может установиться, так как ему не хватает места, но где именно ему не хватает места и почему.. а может быть ошибка говорит вообще о другом?

 , , , ,

gard
()

[Решено]Grub2 rescue mode.. не могу запуститься, /boot на отдельном разделе

Форум — General

Всем привет! Обновил в целях теста систему и grub выпал в rescue mode. Система Debian 7 (уже), стоит в lvm-томах поверх raid.

Делаю ls - вижу lvm-тома. Далее делаю так:

set prefix=(lvm_group-boot)/grub
set root=(lvm_group-root)
Префиксы устанавливаются, могу посмотреть содержимое корня (ls /), но вот содержимое /boot не отображается.

В то же время

ls (lvm_group-boot)/
показывает все можержимое /boot.

Команда монтирования в rescue-mode недоступна, как же запуститься?

 , , ,

gard
()

Использовать ли вирт машины? Роутер для офиса в вирт. машине..

Форум — Admin

Здравствуйте! Дублирую свое сообщение с другого ресурса в попытках получить ответы. )

На днях пришел новый сервер HP ProLant DL320e Gen8 v2 с парой управляемых коммутаторов и прочими плюшками. Зреет глобальная переделка сети.

Сервер планируется в основном под 2 задачи: обеспечение работы сети (шлюз, роуты, несколько коннектов, DHCP, DNS, VLAN), сетевые сервисы (жабер, самба и пр.).

Вот сижу и думаю, может быть попробовать вирт машины для этого дела. К примеру в хост-системе создаются 2 вирт. машины для этих двух задач. Одна машина держит инет, роутит/фильтрует трафик, обеспечивает работу сети, а вторая предоставляет файл-сервер, жабер и прочие вещи пользователям. Их и бэкапить проще - целиком еженощно... сейчас система бэкапится LVM-снапшотами.

Есть ли в этом смысл? С виртуалками никогда не работал, потому и спрашиваю.

Сейчас все это сделано на одной физ. машине без всяких виртуалок.

 , , , ,

gard
()

Роутер, софтовый или железка?

Форум — Admin

Всем привет! Никак не могу определиться что же лучше в моем случае. Это все будет делаться в недалеком будущем, но вопрос возник уже сейчас. Надобно подумать какой роутер выбрать: железный или софтовый.

В организацию приходят 3 аплинка, которые будет держать небольшой Микротик, обеспечивая резервирование. Будут стоять гигабитные коммутаторы доступа уровня 2, несколько VLAN (пара групп пользователей, открытый вайфай, видеокамеры...). Будет недорогой серер (HP ProLiant DL320e Gen8 v2, модель 717170-421) с raid1 из двух дисков, с DNS, DHCP, Samba-шарой и прочими вещами на борту. Пользователей в сети на текущий момент около 60ти.

Задача в том, чтобы роутить и фильтровать трафик между разными VLAN, выступать в качестве шлюза по-умолчанию во внешний мир + натить PPTP-подключение поверх резервированного канала и не глючить.

Пока что остановился на выборе Mikrotik RouterBoard 2011iLS-IN, другого недорогого варианта просто не нашел. Однако меня смущает, что он может стать узким местом в гигабитной сети, если вдруг между VLAN пойдет большой трафик, да и вдруг просто крякнет. С другой стороны можно для этих целей использовать сервер, который будет одним интерфейсом смотреть в Интернет, а другим в локальную сеть. На нем же будет DHCP для нескольких VLAN, DNS, Samba и прочие прелести. В настройке он будет удобнее и гибче.

Но тут еще возникает один вопрос, в котором я не спец. Вероятно в будущем будет внедряться AD, есть вариант на сервере запустить AD в виртуальной машине (к примеру KVM). С виртуалками я не работал и незнаю.. если мой сервер будет софт-роутером, кроме прочих функций. У него будут заняты 2 физ. интерфейса (а их всего 2), то как же быть с той же AD в виртуалке, которой наверное придется давать доступ к уже используемому физ. интерфейсу.. В общем наверное глупость про виртуалку написал. Надо изучить..

Какой же вариант выбрать: железка или софт-роутер на линуксе?

gard
()

Как заставить PPTP-соединение подключаться поверх определенного ppp-соединения?

Форум — Admin

Всем привет! Постараюсь описать в кратце, надеюсь на то, что такое возможно без изобретения костылей.

Есть два Интернет-канала, то есть два PPPoE-соединения: ppp0, ppp1. Время от времени случается так, что соединения падают или зависают. На этот случай раз в 5 минут срабатывает скрипт, проверяющий доступность каналов и производящий при необходимости смену default gw. Если падают оба канала - default gw вешается на физический интерфейс.

Проблема в том, что поверх ppp0 запущено VPN(PPTP)-соединение, которое кроме как через ppp0 не работает (бесконечные попытки коннекта). При падении ppp0 происходит следующее - PPTP пытается соединиться через ppp1 либо через физ. интерфейс, при этом динамически создается роут до VPN-сервера через любой из этих интерфейсов. И даже после поднятия ppp0 - роут остается и PPTP-клиент пытается соединиться через него, чего никак не получается.

Можно ли заставить PPTP-соединение работато строго поверх ppp0, а не текущего defaul gw?

Пока что на ум приходит только в скриптах /etc/ppp/ip-up.d/ и /etc/ppp/ip-down.d указать, что при падении ppp0 - выключать pptp и наоборот.

gard
()

Вопрос к знатокам о классовой дисциплине PRIO из арсенала утилиты tc

Форум — Admin

Всем привет! Хочу уточнить у знающих людей один момент по классовой дисциплине PRIO. Предысторию «зачем и почему» описывать не буду, дабы не утомлять большим количеством текста, перейду сразу к сути. По-умолчанию дисциплина PRIO создает 3 класса с приоритетами от 0 до 2 и распределяет трафик по меткам TOS, если нет заданных классификаторов или трафик не был классифицирован.

Мне для трафика, уходящего с интерфейса нужно создать 4 уровня приоритета, т.е. 4 класса, к примеру так:

tc qdisc add dev eth0 root handle 1: prio bands 4
Классифицировать трафик буду определенными фильтрами. Насколько я понимаю здесь получится 4 класса с приоритетом от 0 до 3. В эти классы я расфасовал трафик четырьмя фильтрами. Посмотрел - пакеты бегают в нужных классах.

Но вот правильно ли я понял следующий момент. Если трафик правильно классифицируется и попадает в нужные классы, то обрабатывается с приоритетом от 0 до 3 (соответственно для каждого класса), а неклассифицированный трафик обрабатывается по флагам TOS первыми 3мя классами: 1:1, 1:2, 1:3. Верно ли я это понимаю?

Или же все не так и нужно как то менять параметр priomap? Как его менять я честно говоря не понял. Нашел такой описание, а понять толком не могу, буду раз если кто-то поможет. :)

priomap classForPrio_0 classForPrio_1 ... classForPrio_15 This option defines a table which is used to assign a packet to a class based on its :priority:. It is only used if the packet is not assigned a class by a classifier. There is one entry in the table per packet priority, so the table has 16 entries. The first entry in the table contains the class number for priority 0 packets, the second entry contains the class number for priority 1 packets, and so on. Class number 0 means classid N:1, class number 1 means classid N:2, etc. The «priomap» option must be the last one in the command line. The «priomap» keyword is followed by the class numbers for each priority in asceding priority number order. If not specified this default priomap is used:

priomap 1 2 2 2 1 2 0 0 1 1 1 1 1 1 1 1

If you supply less than 16 class numbers the ones you do supply are used to fill in the first entries in the table. The default map is used for the remaining entries.

 , ,

gard
()

raid1, lvm, ext4, нечитаемый сектор..

Форум — General

Привет всем! Прошу просветить. =)

Сегодня столкнулся с ситуацией, что при ребилде массива (с рабочего диска на добавленный) на рабочем диске обнаружился нечитаемый сектор. Попробовал прочитать его c помощью команды: hdparm --read-sector - не читается, соседние читаются, а этот нет. Через некоторое время пока я занимался какими то прочими делами, снова запустив ребилд, массив собрался. Сектор читается. В SMART стоит 0 в счетчике reallocated секторов, в счетчике ошибок рандомного чтения тоже 0, температура диска в порядке, все читается. Погрешил на SATA кабель, потому что ходил и двигал этот комп, подключая внешний диск во время сборки массива.

Но суть не в этом. Есть такая команда hdparm --write-sector (--repair-sector), которая как я понимаю делает ремап сектора, то есть помечает его как плохой, если не может прочесть и переносит его в запасную зону диска. В паре мест прочел, что можно сделать эту операцию, потом проверить ФС и утилита проверки ext3/ext4 скорее всего все восстановит, если найдет какие-то ошибки.

А у меня на диске сделан один большой раздел, который входит в состав массива /dev/md0 1го уровня. Поверх массива развернута группа томов lvm с 3мя томами, а уже на них отформатированные в ext4 разделы. И вот что здесь получится при выполнении команды восстановления сектора непонятно. Если это сектор расположился на границе какого-либо тома lvm или в области его метаданных, тут как я понимаю e2fsck уже не поможет? Как вообще быть в таком случае?

ps: может быть задаю совершенно бредовый вопрос, но хочется понять и разобраться, чтобы знать на будущее. =)

 , , , , нечитаемый сектор

gard
()

Нужен бэкап системы на soft-raid + lvm: клон, снэпшоты?

Форум — General

Привет всем!

Люди добрые подскажите как решить задачку. Имеется в сети важный компьютер, даже можно сказать сервер, который и связь держит на 2 направления, и пакеты роутит и локальную сеть обеспечивает DNS'ом, DHCP, жабером, проксей, файлпомойкой (самба3) и кое-чем еще. Он является по сути дела слабым звеном, при потере которого вся работа встанет и это плохо. Кое что конечно сделано: мощный ИБП (компьютер автовыключается через 10 минут отсутствия электричества), Soft Raid 1го уровня из двух терабайтных дисков WD RE, поверх массива 3 тома lvm (/boot, swap, /). Debian Stable.

Хотелось бы каким либо образом, желательно «на горячую», не выключая компьютер сделать полную копию системы. Если система упадет, то пользовательские данные с файлпомойки можно взять из бэкапа, а вот саму систему придется ставить и настраивать. А быстро это не получится (тот же ldap + samba с пользователями в нем). И поэтому было бы неплохо в таком случае иметь пусть даже месячной давности копию рабочей системы (клон диска) в виде 3го диска, который просто нужно воткнуть в новый корпус. На нем также должен быть raid + lvm, чтобы банально добавить в raid 2й диск-зеркало и работать дальше. То есть нужно сделать полную копию.

Пока у меня 2 мысли: клонировать диски с использованием mdadm, пример: 1) Выключаем работающий компьютер с рэйдом (диски А, Б). 2) Вынимаем диск Б, вставляем диск С, на который нужно скопировать систему. 3) Включаем комп, собираем массив, дожидаемся ребилда. 4) Выключаем комп, достаем наш диск С (диск под копию). 5) Вставляем вынятый ранее диск Б, включаем компьютер. 6) И тут теоретический вопрос. Как mdadm определит, какой из двух дисков правильный? Диск А, который содержит уже более новые файлы или диск Б, который был достан первым? Информация будет взята из суперблока каждого диска? Кроме того такая схема требует физического выключения компьютера и похода до него с дисками, монитором и клавиатурой (а если раз в месц это делать - ужас). Незнаю можно ли в mdadm просто отзеркалить 3й диск и выдернуть его из массива, не помечая как сбойный, чтобы потом вставить диск в другой комп и он заработал. Такое возможно? Но опять же тут нужно открывать корпус и дергать диски.

Второй вариант более «горячий». Это lvm-снэпшоты. К примеру на диске, который будет клоном можно создать такую же разметку raid autodetect, импортировать на него схему разметки томов lvm и приступить к снятию снэпшотов скажем раз в месяц удаленно. Под файлы снэпшотов в комп можно на ПМЖ вставить какой нибудь 500Гиговый диск. Сделать первый снэпшот, скопировать на диск-клон, поставить загрузчик. А потом раз в месяц просто обновлять диск-клон на всякий пожарный случай. Однако с снэпшотами мне не совсем все понятно. Так как снэпшот - это по сути снимок, а мне нужно сделать снимок работающей системы, то такой снимок будет логически неверен. Как минимум в снимке не нужны файлы блокировок работающих процессов. Нужно отключать сервисы? Но ведь все процессы не отключишь. В общем получается, что в идеале это должен быть снимок системы с выключенного диска, но желательно наоборот. И тут противоречие. Кто-либо успешно делал снимок с работающей на lvm системы и восстанавливал его?

В общем простите за долгое описание, но честно говоря пока не уверен как же все таки периодически клонировать всю систему полностью, надежно, но как можно быстрее, без дергания дисков в корпусе, а то ведь и уронить можно ненароком. =)

 , , ,

gard
()

Глупо, но .. почему у меня не сохраняются настройки сеанса?

Форум — General

настрою разрешение экрана, количество виртуальных рабочих столов.. оставлю открытыми разные окна. При перезагрузке - все исчезает. Разрешение кривое, 4 рабочих стола, окон открытых нет. И куда оно девается? Пардон канечно за глупые вопросы. :)

>>>

gard
()

Звук в Mandriva 2007 Spring Free

Форум — Linux-hardware

Ковыряюсь тут, смотрю дистрибутивы. Поставил Mandriva 2007, вроде всем нарвится .. пока что.. пока не начинаю настраивать железо. А настраивать стал оттого, что звука нет. У меня встроенная звуковуха HighDefinition. Для нее я в OpenSUSE ставил драйвера классическим способом - все работало. Драйвера отсюда: http://www.alsa-project.org/main/index.php/Main_Page. Так вот когда я распаковываю содержимое alsa-driver-1.0.14 и пишу ./configure, то процесс идет и в итоге я получаю непонятное

"...checking for kernel linux/version.h... no The file /usr/src/linux/include/linux/version.h does not exist. Please install the package with full kernel sources for your distribution or use --with-kernel=dir option to specify another directory with kernel sources (default is /usr/src/linux).".

Честно говоря я понятия не имею как устанавливать дрова. Уже пытался на видяху поставить - ничего не вышло. Помогите разобраться со звуком. Жду ответов.

>>>

gard
()

Объясните суть установки драйвера NVIDIA на Kubuntu 7.04 и вообще

Форум — General

Эта ветка выросла из новой.. из: http://www.linux.org.ru/view-message.jsp?msgid=2170286 Там кто читал знает, что я дошел до того, что в Кубунте мне нужно поставить драйвера на видяху. Она у меня встроенная GeForce 6100.

Итак, я отключил X Server командой "/etc/init.d/kdm stop"

Затем я написал (спасибо Igron да и всем!) "sudo aptitude install build-essential kernel-headers-`uname -r`"

и после этого посетапил дрова примерно так: "NVIDIA-Linux-x86-100.14.11-pkg1.run" - сетап прошел, но.. после рестарта Х сервера никакого эффекта я не почувствовал.

После этого от polachok получаю совет по установке дров и читаю ссыль: https://wiki.ubuntu.com/BinaryDriverHowto/Nvidia

Делаю как там.. вручную вписываю в /etc/X11/xorg.conf "nvidia" вместо "nv" - выбираю монитор с такими же частотами развертки в центре управления, ставлю: 30-81, 56-75. Перезапускаю иксы - работает. Именно так как нужно, то есть 1280*1024 и все как надо. В центре управления смотрю - стоит по прежнему "nv" а не "nvidia" в строке драйвер. Добавляю для OpenGL блок "Extensions" в конфиг файл. - перезапускаю - все - не запускается. Перезапускаю в режиме восстановления. пишу "startx" и получаю:

...using configfile: "etc/X11/xorg.conf" ERROR: NVIDIA: No mathing device section for instance (BusID PCI:0:1:3) found. ERROR: API mistmatch: this NVIDIA driver component has version 100.14.11, but the NVIDIA kernel modules version does not match. Please make sure that the kernel modules and all NVIDIA driver components have the same version. Failed to inizialize the NVIDIA kernel module! Please ensure that there is a supported NVIDIA GPU in this system, and that NVIDIA device files have been created properly... А затем еще месага типа "невозможно запустить Х сервер... ":0.0".

Вот и сижу теперь в черном экране и не знаю что делать. Я самое главное не понимаю сути - я установил драйвера.. а куда? Ничего не понимаю.. Помогайте кто чем может, как я уже писал - я в линуксе полный чайник. :) Сейчас пишу из под венды.

gard
()

Под консолью не принимает пароль на root

Форум — General

Ничего не понимаю,, мне нужно установить драйвера на видеокарту не под оконным режимом, я захожу в консольном режиме под пользователем gard. Пишу "su", чтобы смениться на рута, спрашивает пасс, ввожу пасс, а мне Authentification failed. Ну что такое то. Система Kubuntu 7.04 в кде тоже не пускает под рутом. Можно подумать, что я забыл пасс, но когда открываю под кде разные проги, требующие прав рута - пасс работает. Помогите разобраться.

gard
()

Кто использует ASPLinux, как оно?

Форум — Desktop

Недавно перепробовал Fedora 7, mandriva 2007 Spring Free, OpenSUSE 10.2. Вот есть дистриб ASPLinux 11.2 и думаю пробовать ли его. Вообще то думаю Mandriva стравить. Отсюда вопрос: кто использовал ASPLinnux как оно? Есть еще Kubuntu 7.04, если кто юзал - оцените. Вообще бы чтоб памяти не кушало как OpenSUSE, она чт многовато забирает. Жду ответов.

gard
()

RSS подписка на новые темы