Что-то сломанное в поддержке >4Gb RAM в i386 - хрен с ним!
Но зачем ломать мост ?!
Есть замечательная фича «brctl setageing brX 0» превращающая свитч в хаб.
эти гады запретили нам ставить время меньше 10 секунд!
brctl судя по всему тоже сломан. Не ожидает он отсутствия /sys/class/net/brX/ageing_time который уже давно зачем-то переехал в /sys/class/net/br10/bridge/ageing_time. В 4.0/4.1 он еще работает через SIOCDEVPRIVATE, а в 4.4 - хрен!
А пропихивание в netdev патчей - еще то развлечение...
Собрал на для ознакомления сначала 4.3.1 (потом 4.4.0rc4)
Не грузится, говорит нет у тебя корневого раздела!
Не верю ему, запускаю
# vgscan
Reading all physical volumes. This may take a while...
No volume groups found
# vgscan
Reading all physical volumes. This may take a while...
Incorrect metadata area header checksum
Incorrect metadata area header checksum
# vgscan
Reading all physical volumes. This may take a while...
No volume groups found
# vgscan
Reading all physical volumes. This may take a while...
Found volume group "V0" using metadata type lvm2
WARNING: This metadata update is NOT backed up
# pvscan
umovestr: Input/output error
/dev/sda2: Checksum error
/dev/sdb2: Checksum error
/dev/sda2: Checksum error
/dev/sda2: Checksum error
/dev/sdb2: Checksum error
/dev/sdb2: Checksum error
PV /dev/sda2 lvm2 [461.76 GB]
PV /dev/sdb2 lvm2 [476.69 GB]
Total: 2 [938.45 GB] / in use: 0 [0 ] / in no VG: 2 [938.45 GB]
Я фигею! При каждом запуске разный результат.
«vgchange -ay» срабатывает на 3-5 раз, даже rootfs можно смонтировать после этого,
но все равно не загружается из-за ошибок запуска init.
Весь что нужно для старта вкомпилено в ядро. С этим же initrd грузятся ядра от 3.4 до 4.1
google про все эти ошибки отсылает в 2007-2009 год с проблемами у древних ядер или описывает проблемы с поврежденными данными.
Есть предположения из-за чего эта фигня происходит?
На большом потоке ( ~300мбит/с ) cо всеми протоколами используется примерно 50-60% одного ядра Intel(R) Xeon(R) CPU E31230@3.20GHz. Если поток больше или процессор слабее, то включаем RPS или используем сетевые карты с multi-queue и irq-affinity.
У меня оно тестируется на трафике до 400Мбит/~100к conntrack/~90kpps для x86 и x86_64.
В понятиях netfilter оно умеет проверять пакеты на принадлежность к протоколам (match) и ставить на пакеты метки/классы (target) по аналогии с MARK & CLASSIFY. Есть поддержка NET_NS и IPv6.
Требуется много памяти. На каждое соединение расходуется примерно ~850+280*0.7 байт. Этот объем варьируется в зависимости от 32/64 бита, с/без IPv6.
Есть кто успешно его использует как кеширующий прокси хотя бы на 300-500 клиентов?
На хабре не так давно была статейка про использование сквида 3.5.
Потыкав его тут же нашел баг в ftp. Что-то они там такое адское замутили с ftp, аж страшно смотреть (в 3.5 ftp переписан полностью).
Прекрасный пример СПО в действии - 4 дня переписки в squid-dev и багу в ftp пофиксили ( на третий раз они согласились с моим патчем ). Разработчик живет в Новой Зеландии с GMT+13 :) так что переписка была не очень оживленной.
две машинки с интегрированными 82574L после обновления ядра не проработали и 30 минут - умерли. У одной на консоле было несколько мессаг про «disable irq #XXX» от сетевух и мертвый вис, вторая успела сказать oops с чем-то про irqpoll.
До этого одна была на 3.18.21, другая на 4.0.8 и работали без проблем. Активно используется jumbo-фреймы.
Гугление отсылает к событиям 5-летней давности.
Может заменить драйвер на интеловский e1000e с sourceforge? Помнится от какой-то проблемы с ванильными драйверами e1000e однажды он помог, но потом и в ядре его починили и ставить интеловский уже было не нужно.
после обновления FF (а может и чуть раньше) ТОЛЬКО на роликах с coub.com нет звука, о чем говорит крестик на динамике. Если его пытаешься включить, то ничего не происходит.
Профиль новый создавал, выносил все плагины - не помогло.
Гугль полезного не подсказал.
Есть куча типов ключей для хоста rsa1,dsa,rsa,ecdsa,ed25519.
Может есть смысл сократить до какого-то одного rsa ?
Не хочется пихать в dns кучу sshfp.
Старинных/тормозных клиентов нет. Кто обломается без rsa1,dsa или новомодных ecdsa,ed25519. На работоспособность клиентских ключей этих типов оно влияет?
На опеннете появлся анонс про расширение адресного пространства FAN созданный Марком Шаттлворт
идея описана хорошо, но вот как оно реализовано? Сомневаюсь, что было написано что-то ядерно.
В принципе задача решается с помощью iptables + ivs + ovs vlan/vxlan
В lxc очень не хватает интеграции с ivs. Хорошо бы сделать при запуске контейнера маппинг некоторого внешнего ip:port в ip:port контейнера и натить все коннекты из контейнера неким внешним адресом.