LINUX.ORG.RU

Сообщения fashka

 

Отсутствие маршрута в ip_conntrack и в cache

Приветствую. Возникла трабла следующего характера:

Есть статические маршруты:

192.168.20.240/28 via 10.70.255.253 dev eth1
192.168.23.240/28 via 10.70.255.253 dev eth1

Вывод ip r g

[root@server sysconfig]# ip r g 192.168.27.242
192.168.27.242 via 10.70.255.253 dev eth1  src 10.70.255.254
    cache  ipid 0x70d9 mtu 1500 advmss 1460 hoplimit 64
[root@server sysconfig]# ip r g 192.168.20.248
192.168.20.248 via 10.70.255.253 dev eth1  src 10.70.255.254
    cache  mtu 1500 advmss 1460 hoplimit 64

grep из cache

[root@server sysconfig]# ip route show cache |grep 192.168.28.242
192.168.28.242 from 10.70.255.254 via 10.70.255.253 dev eth1
local 10.70.255.254 from 192.168.28.242 tos throughput dev lo  src 10.70.255.254
192.168.28.242 via 10.70.255.253 dev eth1  src 10.70.255.254
[root@secver sysconfig]# ip route show cache |grep 192.168.20.248
192.168.20.248 via 10.70.255.253 dev eth1  src 10.70.255.254
192.168.20.248 from 10.70.255.254 via 10.70.255.253 dev eth1

Ну и соответственно:

[root@server sysconfig]# cat /proc/net/ip_conntrack|grep 192.168.20
[root@server sysconfig]#  cat /proc/net/ip_conntrack|grep 192.168.28
udp      17 143 src=10.70.255.254 dst=192.168.28.240 sport=5060 dport=5060 packets=19 bytes=10783 src=192.168.28.240 dst=10.70.255.254 sport=5060 dport=5060 packets=20 bytes=11680 [ASSURED] mark=0 secmark=0 use=1
udp      17 126 src=192.168.28.240 dst=10.70.255.254 sport=16486 dport=12090 packets=1275 bytes=255000 src=10.70.255.254 dst=192.168.28.240 sport=12090 dport=16486 packets=1255 bytes=251000 [ASSURED] mark=0 secmark=0 use=1
udp      17 125 src=192.168.28.244 dst=10.70.255.254 sport=5060 dport=5060 packets=13 bytes=7880 src=10.70.255.254 dst=192.168.28.244 sport=5060 dport=5060 packets=14 bytes=8612 [ASSURED] mark=0 secmark=0 use=1
udp      17 159 src=192.168.28.241 dst=10.70.255.254 sport=5060 dport=5060 packets=7 bytes=3496 src=10.70.255.254 dst=192.168.28.241 sport=5060 dport=5060 packets=7 bytes=4100 [ASSURED] mark=0 secmark=0 use=1
udp      17 165 src=192.168.28.243 dst=10.70.255.254 sport=5060 dport=5060 packets=7 bytes=3489 src=10.70.255.254 dst=192.168.28.243 sport=5060 dport=5060 packets=7 bytes=4100 [ASSURED] mark=0 secmark=0 use=1
udp      17 125 src=10.70.255.254 dst=192.168.28.244 sport=15080 dport=16474 packets=1264 bytes=252800 src=192.168.28.244 dst=10.70.255.254 sport=16474 dport=15080 packets=1255 bytes=251000 [ASSURED] mark=0 secmark=0 use=1

Гугл результатов не дал.

[root@server sysconfig]# uname -a
Linux aster 2.6.18-371.6.1.el5 #1 SMP Wed Mar 12 20:03:51 EDT 2014 x86_64 x86_64 x86_64 GNU/Linux
[root@server sysconfig]# rpm -qf /sbin/ip
iproute-2.6.18-15.el5

Ну и как водится, работ на сервере ни каких не производилось. Само сломалось.

fashka
()

Странное поведение альяса

Приветсвую.

Есть вот такой вот ifconfig:

eth1      Link encap:Ethernet  HWaddr 52:54:00:94:54:EE
          inet addr:123.123.123.218  Bcast:123.123.123.223  Mask:255.255.255.248
          inet6 addr: fe80::5054:ff:fe94:54ee/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:83661 errors:0 dropped:0 overruns:0 frame:0
          TX packets:60664 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:18983356 (18.1 MiB)  TX bytes:23414884 (22.3 MiB)

eth1:0    Link encap:Ethernet  HWaddr 52:54:00:94:54:EE
          inet addr:123.123.123.219  Bcast:123.123.123.223  Mask:255.255.255.248
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

eth1:1    Link encap:Ethernet  HWaddr 52:54:00:94:54:EE
          inet addr:123.123.123.220  Bcast:123.123.123.223  Mask:255.255.255.248
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

Есть вот такие настройки:

eth1
DEVICE=eth1
HWADDR=52:54:00:94:54:ee
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=none
IPADDR=123.123.123.218
NETMASK=255.255.255.248
eth1:0
DEVICE=eth1:0
ONBOOT=yes
IPADDR=123.123.123.219
NETMASK=255.255.255.248
ONPARENT=yes
eth1:1
DEVICE=eth1:1
ONBOOT=yes
IPADDR=123.123.123.220
NETMASK=255.255.255.248
ONPARENT=yes

GATEWAY=123.123.123.217

Крутится все это на виртуальной машине под KVM

Сначала адреса стояли в убывающей последовательности (eth1-218, eth1:0-219, eth1:1-220) извне работал только адрес 218, а остальные были недоступны. Поменял последовательность (eth1-220, eth1:0-219, eth1:1-218) - заработало. Проработало сутки и перестало. Ни чего не помогало (restart network, init 6). Потом, минут через час, ВНЕЗАПНО, заработало. В логах ни чего нет.

Были-ли у вас похожие ситуации? Где может быть проблема?

uname -a 2.6.32-358.23.2.el6.x86_64

cat /etc/issue CentOS release 6.4 (Final)
fashka
()

cman & fence

Добрый день/вечер. Есть кластер под cman. В качестве fence стоит fence_imm (ибо IBM). Команды типа

fence_imm -A password -a 10.0.0.204 -p PASSW0RD -l USERID -o status
Getting status of IPMI:10.0.0.204...Chassis power = On Done

Конфиг кластера:

[root@node03 ~]# cat /etc/cluster/cluster.conf
<?xml version="1.0"?>
<cluster config_version="105" name="clustername">
        <clusternodes>
                <clusternode name="nn01" nodeid="1">
                        <fence>
                                <method name="fence_node01">
                                        <device name="IMMnn01"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="nn02" nodeid="2">
                        <fence>
                                <method name="fence_node02">
                                        <device name="IMMnn02"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="nn03" nodeid="3">
                        <fence>
                                <method name="fence_node03">
                                        <device name="IMMnn03"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <rm status_poll_interval="5">
                <resources>
                        <script file="/etc/init.d/libvirtd" name="libvirtd"/>
                </resources>
        </rm>
        <logging logfile="/var/log/logname.log"/>
        <fencedevices>
                <fencedevice agent="fence_imm" auth="password" delay="5" ipaddr="10.0.0.202" login="USERID" name="IMMnn01" passwd="PASSW0RD" power_wait="20" timeout="20"/>
                <fencedevice agent="fence_imm" auth="password" delay="5" ipaddr="10.0.0.203" login="USERID" name="IMMnn02" passwd="PASSW0RD" power_wait="20" timeout="20"/>
                <fencedevice agent="fence_imm" auth="password" delay="5" ipaddr="10.0.0.204" login="USERID" name="IMMnn03" passwd="PASSW0RD" power_wait="20" timeout="20"/>
        </fencedevices>
</cluster>

Так вот проблема: когда бутаем/выключаем одну железку, кворум пересобирается и исключает её:

[root@node02 cluster]# fence_tool ls
fence domain
member count  2
victim count  0
victim now    0
master nodeid 1
wait state    none
members       1 2
[root@node02 cluster]# cman_tool status
Version: 6.2.0
Config Version: 105
Cluster Name: clustername
Cluster Id: 33146
Cluster Member: Yes
Cluster Generation: 2736
Membership state: Cluster-Member
Nodes: 2
Expected votes: 3
Total votes: 2
Node votes: 1
Quorum: 2
Active subsystems: 7
Flags:
Ports Bound: 0
Node name: nn02
Node ID: 2
Multicast addresses: 239.192.129.251
Node addresses: 10.100.100.2

Железка бутнулась и все. cman не стартует. Валится на «ожидании кворума». Но стоит только на одной из «живых» дернуть cman одновременно с «не живой», кворум собирается, cman стартует.

То-есть, fence отрабатывает. А вот unfence - нет :-)

Что не так сделано или это особенность этого fence метода?

fashka
()

кластреная ФС и gluster на одной железке.

Приветствую!

По теме возникла одна трабла. Может, конечно, и не трабла, но вопросы имеются :-)

Сделал два варианта решения.

Вариант №1

На нодах выделил раздел под glusterfs (он будет использоваться под БД oVirt'a, либо под виртуалку с oVirt'ом) в режиме replica. Эта конфигурация работала (писались файлы, имитация падения железки, выдергивание дисков, в общем, годные тесты), ноды синхронизировались. Далее, подключаю полку по iSCSI. Монтирую, создаю gfs2. Опять же, пишет прекрасно, но медленно, пока все три (пока их три) ноды подняты. Стоит одну из них положить, остальные две уходят в «неизвестное» состояние. Вроде как и доступны, а работать на них нельзя. Ну типа комы что-ли. Поднимается опущенная железка, и вуаля! Синхронизация и опять работа. Скорость записи (dd if=/dev/zero of=/sharedata/20G count=1000 bs=20M) примерно 130M/sec (на чистой ext4 было в районе 500M/sec). Чтения же - 600M/sec. Ниже пример cluster.conf от cman'a:

<?xml version="1.0"?>
<cluster name="first-cluster" config_version="1">
    <fence_daemon post_fail_delay="0" post_join_delay="8"/>
        <clusternodes>
                <clusternode name="nn01" nodeid="1" votes="1">
                        <fence>
                                <method name="1">
                                        <device name="fence_manual" nodename="nn01"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="nn02" nodeid="2" votes="1">
                        <fence>
                                <method name="1">
                                        <device name="fence_manual" nodename="nn02"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="nn03" nodeid="3" votes="1">
                        <fence>
                                <method name="1">
                                        <device name="fence_manual" nodename="nn03"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <fencedevices>
                <fencedevice agent="fence_manual" name="fence_manual"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                </failoverdomains>
        </rm>
        <dlm plock_ownership="1" plock_rate_limit="0"/>
        <gfs_controld plock_rate_limit="0"/>
</cluster>

Вариант №2

Такая же конфигурация, только вместо gfs2 использовалась ocfs2. Проблема не заставила себя долго ждать: не монтируется gluster. Ядро взято с public-yum.oracle.com (rpm пакет)

uname -r
2.6.39-400.109.6.el6uek.x86_64

Скорость записи в районе 130M/sec. Чтения - 40M/sec (да-да, СОРОК)

------------

Ну а теперь вопросы :-):

1) какой использовать fence метод чтобы избежать подвисания оставшихся в живых нод?

2) ocfs2 и glusterfs на одной железке работают?

3) есть-ли какие альтернативы ocfs2 и gfs2 (за что, конечно же, платить не нужно ;-))

4) может-ли работать gluster в «обраную» сторону? (не с трех нод объединять три раздела и отдавать его как один, а отдавать один раздел (iSCSI) трем нодам, при этом не зависеть от какой-либо одной ноды (так пробовал, скорость - огонь! Только нельзя ей падать :-)))

-----

За любой ответ/совет буду очень признателен.

 , , ,

fashka
()

high availability, oVirt

Приветствую.

Ситуация вот какая: есть три (на данный момент) сервера (node01, node02, node03). Есть дисковая полка. Есть 10Gb. oVirt развернут вот так:

node01 - ovirt-engine, vdsm. Собственно тут и вебморда oVirt'a

node02 - vdsm

node03 - vdsm

То-есть, при падении node02 или node03 мигрирую машина на живую ноду и все путем. Но при падении node01 возникает проблема :-) Мигрировать нечем.

Интересна была бы следующая схема:

node01 - ovirt-engine, vdsm. Собственно тут и вебморда oVirt'a

node02 - ovirt-engine, vdsm. Собственно тут и вебморда oVirt'a

node03 - ovirt-engine, vdsm. Собственно тут и вебморда oVirt'a

Реплицируем postgresql, конфиги oVirt с node01 на остальные. Но это геморройная схема.

Как здесь можно реализовать HA чтобы при падении любой из нод можно было обратиться на вебморду oVirta? Кто-нибудь реализовывал такую схему? heartbeat? pacemaker? Может просто mdadm+NFS? И да, количество нод будет расти.

 

fashka
()

После обновления ядра, SLES 11 монтироут / как read-only

Добрый день.

Стояла SLES 11, обновил ядро из SP1. При загрузке система выдает:

fsck failed.  Please repair manually and reboot. The root remount
file system is currently mounted read-only. To remount it
read-write do:

   bash# mount -n -o remount,rw /

Attention: Only CONTROL-D will reboot the system in this
maintanance mode. shutdown or reboot will not work.

Ну и собственно, приглашение ввести рутовый пароль. Логинюсь, делаю remount, Init 3, mount -a... И вроде как бы все работает.... Только hostname не подтягивается.... В чём может быть проблема?

uname -a — Linux (none) 2.6.32.12-0.7-default #1 SMP 2010-05-20 11:14:20 +0200 x86_64 x86_64 x86_64 GNU/Linux


(none):/db/db-main # cat /etc/fstab
/dev/cciss/c0d0p2       swap                 swap       defaults              0 0
/dev/cciss/c0dop1       /                    ext3       defaults,rw        1 1
/dev/cciss/c0d1p2       /backup              ext3       defaults        1 2
/dev/cciss/c0d1p1       /db                  ext3       defaults        1 2
/dev/cciss/c0d1p3       /home                ext3       defaults       1 2
/dev/cciss/c0d1p4       /home2               ext3       defaults        1 2
proc                 /proc                proc       defaults              0 0
sysfs                /sys                 sysfs      noauto                0 0
debugfs              /sys/kernel/debug    debugfs    noauto                0 0
usbfs                /proc/bus/usb        usbfs      noauto                0 0
devpts               /dev/pts             devpts     mode=0620,gid=5       0 0
fashka
()

Вот засада...

Доброго времени суток.

Помогите разрешить проблему. Есть лог файл вот такого формата:

[2010/01/12@13:57:01.545+0300] P-32141 T-5662400 I RFUTIL 19: (453) Вышел Aimage empty с batch.

Нужно его распарсить и получить на выходе следующее:

Дата, время, «RFUTIL», и последнее сообщение(«Вышел Aimage empty с batch.»)

Собсно, вот. Помогите :-)

fashka
()

Мистика xml

Здравствуй, народ.

Есть программка, которая читает конфиг из xml и собирает архив.
Часть кода где, собственно и возникает мистика :-)

<target name="inner-gw" depends="log, rtb_java"
description="Система ... " >
<war destfile="${env.WORKINGDIR}/rtb_java/inner-gw.war"
webxml="${home}/inner-gw/WEB-INF/web.xml"
filesonly="true">
<classes dir="${home}/classes/">
<include name="com/name/innergw/*.class" />
<include name="com/name/city/todir/*.class" />
<include name="com/name/city/todir/filter/*.class" />
</classes>

<fileset dir="${home}/inner-gw/">
<exclude name="WEB-INF/web.xml" />
<exclude name="WEB-INF/src/**/*" />
</fileset>

</war>
<success file="inner-gw.war" />
</target>

Странность заключается в том, что строка

<exclude name="WEB-INF/web.xml" />

игнорируется. Хотя вторая строка выполняется.

Вопрос: почему и как "это" исправить?

fashka
()

Fedora 10. Зависание на моменте авторизации.

Поставил 10-ю федору (Гном). Сначала работала нормально. Потом перезагрузился. Пошел процесс загрузки. Дошел до момента запуска Х-ов (там где должно появиться окно выбора пользователь) и все - висим. Ни на что не реагирует. Гугл не помог. Выдержка из /mnt/var/log/messages:

May 8 10:08:30 localhost kernel: agpgart-intel 0000:00:00.0: AGP 3.0 bridge
May 8 10:08:30 localhost kernel: agpgart-intel 0000:00:00.0: putting AGP V3 device into 8x mode
May 8 10:08:30 localhost kernel: pci 0000:01:00.0: putting AGP V3 device into 8x mode
May 8 10:08:30 localhost kernel: [drm] Setting GART location based on new memory map
May 8 10:08:30 localhost kernel: [drm] Loading R200 Microcode
May 8 10:08:30 localhost kernel: [drm] writeback test succeeded in 1 usecs
May 8 10:08:32 localhost gdm-simple-slave[1899]: WARNING: Unable to open session: Launch helper exited with unknown return code 0#012
May 8 10:08:39 localhost gdm-simple-greeter[1998]: WARNING: Could not ask power manager if user can suspend: Launch helper exited with unknown return cod
May 8 10:08:39 localhost gdm-simple-greeter[1998]: WARNING: Could not ask power manager if user can suspend: Launch helper exited with unknown return cod
May 8 10:08:39 localhost gdm-simple-greeter[1998]: WARNING: Unable to find users: no seat-id found
May 8 10:08:50 localhost init: tty4 main process (1818) killed by TERM signal
May 8 10:08:50 localhost init: tty5 main process (1819) killed by TERM signal
May 8 10:08:50 localhost init: tty2 main process (1820) killed by TERM signal
May 8 10:08:50 localhost init: tty3 main process (1821) killed by TERM signal
May 8 10:08:50 localhost init: tty6 main process (1822) killed by TERM signal
May 8 10:08:50 localhost gdm-simple-slave[1899]: WARNING: Unable to close session: no session open#012
May 8 10:08:50 localhost avahi-daemon[1798]: Got SIGTERM, quitting.
May 8 10:08:50 localhost acpid: exiting
May 8 10:08:51 localhost NetworkManager: <WARN> nm_signal_handler(): Caught signal 15, shutting down normally.
May 8 10:08:51 localhost NetworkManager: <info> disconnected by the system bus.
May 8 10:08:51 localhost nm-system-settings: disconnected from the system bus, exiting.
May 8 10:08:51 localhost rpcbind: rpcbind terminating on signal. Restart with "rpcbind -w"
May 8 10:08:51 localhost auditd[1589]: Error sending signal_info request (Operation not supported)
May 8 10:08:51 localhost auditd[1589]: The audit daemon is exiting.
May 8 10:08:51 localhost kernel: audit(1241762931.568:4): audit_pid=0 old=1589 auid=4294967295 ses=4294967295 res=1
May 8 10:08:51 localhost kernel: Kernel logging (proc) stopped.

Больше всего интересно вот это:

May 8 10:08:32 localhost gdm-simple-slave[1899]: WARNING: Unable to open session: Launch helper exited with unknown return code 0#012
May 8 10:08:39 localhost gdm-simple-greeter[1998]: WARNING: Could not ask power manager if user can suspend: Launch helper exited with unknown return cod
May 8 10:08:39 localhost gdm-simple-greeter[1998]: WARNING: Could not ask power manager if user can suspend: Launch helper exited with unknown return cod
May 8 10:08:39 localhost gdm-simple-greeter[1998]: WARNING: Unable to find users: no seat-id found

Что подскажет народ?

fashka
()

Строки, новые строки.

Добрый день/утро/вечер/ночь.

Снова нужна помощь. Имеем:

ADD TABLE "dba"
AREA "Tbl256DataArea"
ADD INDEX "dba" ON "dba"
AREA "Tbl256IndexArea"
ADD TABLE "med"
AREA "Tbl256DataArea"
ADD INDEX "mstrah" ON "med"
AREA "Tbl256IndexArea"
ADD INDEX "med" ON "med"
AREA "Tbl256IndexArea"
ADD TABLE "pss"
AREA "Tbl64DataArea"

Надо преобразовать к виду:

ADD TABLE "dba" AREA "Tbl256DataArea"
ADD INDEX "dba" ON "dba" AREA "Tbl256IndexArea"
ADD TABLE "med" AREA "Tbl256DataArea"
ADD INDEX "mstrah" ON "med" AREA "Tbl256IndexArea"
ADD INDEX "med" ON "med" AREA "Tbl256IndexArea"
ADD TABLE "pss" AREA "Tbl64DataArea"

Уже второй день голову ломаю. Help!

fashka
()

[Варенье][Вещества] Винцо!

Такая тема приключилась: принес на работу из дома варенье. Покушали мы его. Оставили пол-баночки. А оно возьми, за закисни. Забродило, короче. Вот мы тут думаем, что с ним делать? Выкинуть? - жалко (все таки сам его делал). Посоветовали дрожжей добавить...

Господа! Кто знает как сделать вино из варенья? Поделитесь советами :)

 

fashka
()

[память]Вакансия

Вот была тема где-то про то, как чувак работу предлагал в (ЕМНИП) Альфа-банке. Где надо было уметь все! При этом платили ~32k рублей. Тему, как таковую, снесли. В кеше гугла осталась. Помогите найти.

 

fashka
()

iptables роутинг.

Есть такая строка:

-A PREROUTING -p tcp -m tcp --dport 443 -d XX.XX.XX.XX -j DNAT --to-destination 10.0.0.130:8443

Весь входящий трафик на 443 порт с адреса XX.XX.XX.XX заворачивается на 8443-й порт адреса 10.0.0.130

Задача следующая: исходящий(!) трафик с адреса 10.0.0.130 порта 8443 вернуть на 443 порт адреса XX.XX.XX.XX То-есть, развернуть строчку.

Поможете?

fashka
()

Ошибка при установки vmware server 2.0

Всем здрасте.

Имеется VMware-server-2.0.0-122956.i386.rpm Имеется регистраци на сайте и, соответственно, серийник. Начинаем ставить и все идет нормально. Но вот ОНО просит ввести серийник:

Please enter your 20-character serial number.

Ввожу. Дальше ОНО мне пишет:

NOT_REACHED /build/mts/release/bora-122956/bora/lib/unicode/unicodeSimpleTypes.c:2315

NOT_REACHED /build/mts/release/bora-122956/bora/lib/unicode/unicodeSimpleTypes.c:2315

Panic loop

The serial number AAJ29-F0AD7-UDJ36-4KL9T is invalid.

Please enter your 20-character serial number.

Я и перерегистрировался, и перелогинился, и другие номера искал. Скорее все обшибка в системе (CentOS 5.2). Вот только где?...

Ни кто не сталкивался в такой проблемой? Может кто поможет?

fashka
()

[Параноя] Безопасный ввод пароля.

Привет. Кто-нибудь встречал сайты, где для авторизации (как вариант) используется виртуальная клавиатура? Хотелось бы посмотреть, как это выглядит. В интернетах нашел не очень много: https://www.safe-mail.net/

За все примеры буду очень благодарен. :)

fashka
()

почта и консоль

По теме http://www.linux.org.ru/view-message.jsp?msgid=3232391

Подскажите, как настроить mutt или mail. Есть почтовый сервак. Созданы пользователи. Где и что надо настроить. ХЕЛП, короче.. :)

fashka
()

exim консоль вложения

Всем привет. Тема такая: надо отправлять по крону логи на несколько адресов.

Делая: exim -i <adress>@<domain> < access.log оно мне доставляет и открывает это в теле письма.

Делая: exim -i <adress>@<domain> << access.log доставляет мне эту строку.

Не могли бы вы подсказать, как отправить с вложением. Ну и если можно, с темой письма.

Побывал архивировать, открывает в теле письма архив в бинарном виде.

fashka
()

[ЖЖ][вещества][непонятки]вобще кошмар!

У кого так было?: Есть два абсолютно одинаковых сервера (реальные сервера на базе Intel), на них стоит абсолютно одинаковое ПО (CentOS 5.2). Разные только адреса, как МАС, так и IP. Ну и еще небольшие эксперименты проводились, не касаемые системы.

Так вот какая фигня:

на машине номер "раз" работает iptables, но не поднимаются Vlan.

на машине номер "два" поднимаются Vlan, но не работает iptables.:)

Из знакомых ни кто ни чего сказать не может. Говорят "Фига! Первый раз вижу!" Уже неделю с ними секасом занимаюсь. Наверное придеться переставить систему. У вас такое было?

>>>

 , ,

fashka
()

[lan][vlan]не поднимается алиас

Имеем: 
# Intel Corporation 82541GI Gigabit Ethernet Controller
DEVICE=eth0
HWADDR=00:XX:XX:XX:XX:XX
ONBOOT=yes
BOOTPROTO=none
TYPE=Ethernet
NETMASK=255.255.0.0
IPADDR=10.0.0.130
GATEWAY=10.0.0.200

# Intel Corporation 82573V Gigabit Ethernet Controller (Copper)
DEVICE=eth0:1
BOOTPROTO=none
ONBOOT=yes
TYPE=Ethernet
IPADDR=10.0.0.131
NETMASK=255.255.0.0

При service network restart поднимаются оба без проблем и автоматом.
При, почти, таком же раскладе:

PHYSDEVICE=eth1
DEVICE=eth1.250
VID=250
ONBOOT=yes
TYPE=Ethernet
IPADDR=85.XXX.XX.XX
NETMASK=255.255.255.248
BROADCAST=85.XXX.XX.XX
USERCTL=no

DEVICE=eth1.250:0          //
ONBOOT=yes                 //
IPADDR=85.XXX.XX.XX        //Типа алиас на vlan
NETMASK=255.255.255.255    //
USERCTL=no                 //

Не хочет подниматься второе. Вопрос: почему?

P.S. В интересах безопасности адреса я потер :) 

>>>

 ,

fashka
()

[плохая память] Игра

Мелькала новость (давно): типа голландцы гаму пишут про трех зверушек. Скриншоты там еще красивые, трава такая, белочки пушистые....

Подскажите, как называется. Можно ссылкой :)

>>>

fashka
()

RSS подписка на новые темы