LINUX.ORG.RU

Избранные сообщения av4

Долгое размонтирование cifs диска, если удаленный сервер недоступен

Форум — Admin

Монтирую samba-диск, хоть вручную, хоть через fstab. Монтирование происходит удачно. Проблема в том, что если после того, как диск был примонтирован, а удаленный ресурс стал недоступен, то при размонтировании вручную или при выключении, компьютер надолго зависает. Пробовал размонтировать с разными опциями (-l -f -i) в разных комбинациях. Ничего не помогает. Когда umount наконец завершается, то получаю сообщение типа:

CIFS: VFS: \\192.168.10.249 has not responded in 180 seconds. Reconnecting

Монтировать тоже пробовал с разными опциями. Вот пример:

mount -t cifs //192.168.10.249/share /smbmount/share -o _netdev,credentials=/root/qwe.share

Что можно с этим сделать?

 ,

iving
()

Указать ns сервера в регистраторе домена тогоже домена можно:?

Форум — Admin

Домен server1.ru в данный момент использует ns1.domainreg.ru ns2.domainreg.ru тоесть там же где и зареган домен.
DNS записи приходится редактировать там же у регистратора.
На server1.ru установлен bind9 DNS сервер.
А можно как прописать ns серера у регистратора ns1.server1.ru ns2.server1.ru?


Просто так же нельзя сделать
У регистратора домена server1.ru прописать ns1.server1.ru ns2.server1.ru?
потому что IP для ns*.server1.ru непрописаны, только в самом dns сервере server1.ru

В самом server1.ru еще есть вот такая запись просто NS. Какая у нее роль?
server1.ru 14400 IN NS **.255.**.*.

Цель чтоб DNS записи редактировать на своем DNS сервере без сторонних

 ,

Regacar
()

SSH config

Форум — Admin

Подскажите, как в конфиг-файле ssh прописать такую строку:

ssh user@server_ip@host

где server_ip - целевая машина. user - юзер на этой машине.

 

anonymus123
()

Пришпорить файловую систему малинки [000] ( посоветуйте легковесную fs )

Форум — Admin

Продолжаем разговор начатый тут: Пришпорить файловую систему малинки

Решение найдено --- перенести часть файловой системы на USB стик: tmp, swap, var и home Создал на стике логические тома, смонтировал туда tmp и выделил 2Г под своп — малинка заметно пришпорилась, шифрование home заметно тормозило систему-- пришлось отказаться.

Уважаемые, посоветуйте легковесную файловую систему для вынесенных на стик разделов. ext2?

Перемещено hobbit из general

 , , , ,

jia
()

Маршрутизация IPv6 via IPv4 - возможно ли?

Форум — Admin

Прочитал вот здесь: https://ungleich.ch/u/blog/how-to-route-ipv4-via-ipv6/ о том, как маршрутизируется IPv4 via IPv6.

А мне нужно наоборот - IPv6 via IPv4.

ip -6 route add 2004::3/64 nexthop via 192.168.1.3 dev eth0

Получаю:

RTNETLINK answers: No such device

sch_netem.ko загружен.

ip  a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 532
    link/ether 00:11:32:31:1f:9b brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.10/24 brd 192.168.1.255 scope global eth0
3: sit0: <NOARP> mtu 1480 qdisc noop state DOWN 
    link/sit 0.0.0.0 brd 0.0.0.0
4: wlan0: <BROADCAST,MULTICAST> mtu 1500 qdisc mq state DOWN qlen 1000
    link/ether 00:0e:8e:46:a7:a7 brd ff:ff:ff:ff:ff:ff
5: lbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN 
    link/ether 00:0e:8e:46:a7:a7 brd ff:ff:ff:ff:ff:ff
    inet 10.1.14.1/24 brd 10.1.14.255 scope global lbr0
    inet6 fe80::1c1b:2fff:fe49:f7db/64 scope link 
       valid_lft forever preferred_lft forever

Возможно ли сделать такое?

 

le_
()

Как устроено аппаратное декодирование видео?

Форум — Linux-hardware

Изучаю графический стек в нашей ОС. Прочитал это:

https://blogs.igalia.com/itoral/2014/07/29/a-brief-introduction-to-the-linux-...

https://blog.mecheye.net/2012/06/the-linux-graphics-stack/

Осталось непонятно, какое ко всему этому имеет отношение аппаратное декодирование видео, какое место в графическом стеке Linux занимают VDPAU и VA-API.

https://upload.wikimedia.org/wikipedia/commons/thumb/4/47/Linux_graphics_driv...

Видеоплеер, воспроизводящий видеофайл, является OpenGL-приложением или это совсем другие интерфейсы, которые не входят в OpenGL? А в ядре этим тот же самый модуль занимается, что и остальной графикой, или другой? Декодированные кадры видеокарта сразу выводит на экран или они возвращаются обратно приложению, которое их потом выводит через Иксы как обычную растровую 2D-графику?

Допустим, на одной машине выполняется X-сервер, а на другой - видеоплеер, который является X-клиентом. На какой машине видеокарта будет осуществлять декодирование? Или ни на какой - оно программным будет?

Наверняка это банальность, которую уже спрашивали на ЛОРе, но по поиску это не нашлось.

 , ,

damix9
()

Как ограничить доступ к сайту для всех стран, кроме одной?

Форум — Admin

Вопрос скорее про выбор ПО, нежели чем про конкретную реализацию. Я что-то подобное видел в nginx, но разве это не только для plus версии? Может тупо через iptables порт закрыть? В общем, интересует опыт тех, кто уже что-то такое делал.

Перемещено hobbit из general

 ,

u0000
()

cat > file

Форум — Admin
  1. копирую большой кусок из буфера обмена.

  2. вызываю cat > file

  3. вставляю кусок из буфера обмена

  4. в терминале кусок виден до конца

  5. нажимаю Ctrl + D

  6. вижу что кусок записался частично, длина файла 4096

  7. запускаю Kate

  8. копирую кусок туда

  9. сохраняю в файл

  10. кусок записался полностью, длина файла 64349

Подскажите плиз можно ли (и как) победить такое поведение cat?

PS: Debian GNU/Linux bookworm/sid Debian 5.18.5-1 (2022-06-16)

 

quester
()

Книги по скриптам баш

Форум — Talks

Джентльмены, посоветуйте годную книгу по программированию скриптов на баш. Желательно не такое занудство, как какой нибудь Страуструп

Перемещено shell-script из job

 

SpaceRanger
()

MailCow - что про него расскажете?

Форум — Admin

https://mailcow.email

Вот про этого зверя интересно услышать. Сколько оно ест ОЗУ и диска при установке в докер? Сколько нужно проца?

Поделитесь историями успеха и неуспеха, пожалуйста.

Стоит ли вообще ставить, если для себя любимого только?

 , , ,

bvn13
()

Полная и удобная синхронизация двух компьютеров

Форум — Admin

Привет всем!

Есть два компьютера (ноутбук и настольный). Хочу иметь одну и ту же систему на обоих и синхронизировать с того компьютера, где более новое состояние, на тот, где более старое. Начиналось всё с настольного компьютера. Операционная система на нём стоит давно, многократно обновлялась между версиями и всё настроено как мне удобно, нужное ПО, какие-то костыли и т.п. Поэтому я хочу синхронизировать ОС целиком, а не только настройки или отдельные файлы.

На данный момент стоит Ubuntu 21.10 с KDE, обновление до 22.04 планируется. В обоих компьютерах стоят SSD, размеры которых одинаковые до байта. Накопители имеют GPT таблицу разделов и два раздела: ESP на гибибайт и LVM PE на всё остальное. Внутри LVM: /, /home и swap. Файловые системы везде ext4. Шифрования на уровне блочного устройства или самих ext4 не применяется.

Первую синхронизацию я сделал просто через DD, физически переставив один накопитель в другой компьютер. Естественно, дальше это было неприменимо. Поэтому я написал скрипт, который с использованием ключей SSH делает синхронизацию с помощью rsync. А кроме этого предварительно применяет нужные настройки, поднимает нужные сервисы (сеть, SSH). Запускаю я его из rescue режима, чтобы система в это время ничего не делала. В принципе rescue вполне достаточно, только лишь systemd успевает накидать несколько каких-то незначительных файлов. journald при этом остановлен. Хотя, конечно, загрузка с отдельного носителя или какой-то специальный initramfs подошли бы больше. Но, в общем, работает в обе стороны. Однако недостаточно быстро.

А недавно возникла необходимость изменить логические тома на LVM. И после такого изменения один rsync уже не поможет, т.к. размеры томов изменились. Мало того, что изменения размеров томов так не синхронизируются (естественно), так и на одном места для данных не хватит теперь. Конечно, можно синхронизировать опять через dd, но разбирать не хочется, а через сеть медленно. Да и перезаписывать накопитель целиком ещё раз тоже идея так себе. Можно и руками изменить размеры на целевой системе, но муторно. Надо будет сначала удалить ненужные файлы, чтобы освободилось место, потом поменять размеры, потом синхронизировать. А если понадобиться изменить размеры ещё раз, то опять? Морока...

И я подумал, нет ли какого-то решения, чтобы синхронизировать два PV или VG, но только те экстенты, что изменились? Погуглил, но ничего не нашёл. Не знаю, хранят ли экстенты время последнего изменения, чтобы это было в принципе возможно. Хотя тут хватило бы даже не времени, а просто некоторого идентификатора компьютера. Например, когда ОС записывает что-то, то в метаданных экстента записывается хеш от названия материнской платы или т.п. Но это я уже фантазирую. Так существует ли что-то подобное? Может быть как некое дополнение к обычному LVM?

Если ничего такого нет, что тогда? Я нагуглил штуку под названием Distributed Replicated Block Device. Но пока не разобрался по поводу загрузки с неё. Кроме того, она должна же быть под LVM, т.е. это надо всё переустановить. Точнее, скопировать куда-то, потом переразбить носитель и скопировать всё обратно.

Какие есть другие варианты, если без переделывания всего не получится обойтись? У меня такие мысли:
* Один LV просто на весь объём накопителя, тогда не надо будет менять его размер. Но мне это решение не очень нравится, т.к. я хотел завести себе LXC контейнеры и под них создавать отдельные LV. Кроме того, деление на LV и для бекапов полезно. Да, бекапы у меня отдельно, это не на другой компьютер.
* Какие-то иные файловые системы, вроде ZFS и BTRFS могут мне что-то предложить? Думаю, что subvolume (или что-то такое) вполне заменят отдельные LV как для LXC, так и для бекапов. Правда у меня память что там, что там без ECC. А она вроде как очень рекомендована для таких файловых систем.

Кто что думает?

P.S.: Написал в администрирование т.к. думаю, что вопрос больше подходит сюда, т.к. выходит за рамки повседневного использования, хоть это и для личных нужд и «администрирую» я локальные свои системы.

 , , , ,

ls-h
()

Как правильно создать LVM-том?

Форум — Admin

Всем добрый день!

На сервере с Proxmox хочу создать LVM-пул из нескольких физических дисков для использования его в качестве хранилища данных в виде файлов.

Читаю документацию в Proxmox про использование LVM:

Let’s assume we have an empty disk /dev/sdb, onto which we want to create a volume group named “vmdata”.

  1. First create a partition.
# sgdisk -N 1 /dev/sdb
  1. Create a Physical Volume (PV) without confirmation and 250K metadatasize.
# pvcreate --metadatasize 250k -y -ff /dev/sdb1
  1. Create a volume group named “vmdata” on /dev/sdb1
# vgcreate vmdata /dev/sdb1

Возникают вопросы:

  1. нужно ли предварительное применение команды sgdisk? В других мануалах обходятся без неё, сразу выполняют команду pvcreate.

  2. почему размер metadatasize 250k? Допустим я хочу постепенно добавлять новые диски в пул, в перспективе доведя его емкость до 50Гб? Как мне вычислить необходимый размер metadatasize?

  3. что у pvcreate за опция такая -ff? Не нашёл её в описании pvcreate. Есть просто -f

  4. pvcreate лучше делать над партицией (как в приведённом выше примере pvcreate /dev/sdb1) или над всем диском (pvcreate /dev/sdb)?

  5. соответсвенно и группу томов можно создавать на базе партиции (vgcreate vmdata /dev/sdb1) или на базе всего диска (vgcreate vmdata /dev/sdb). Как правильно/лучше?

Перемещено hobbit из general

 ,

Garik368
()

Вопрос по настройке iptables

Форум — Admin

Помогите с iptables. Задача: Есть VDS от таймвеба на убунте с белым айпи. Дома обычный интернет от провайдера, с динамическим айпи приходит на роутер Асус. Нужно организовать доступ к домашним ресурсам через этот VDS с белым айпи. Между домашним роутером ASUS и VDS уже есть OpenVPN туннель. Нужно чтобы из интернета я обращался к белому айпишнику VDS (https://89.200.200.200:58006) и попадал на веб https://192.168.88.2:8006 в домашней сети, через OpenVPN туннель. Настраиваю iptables и на VDS с убунтой и на роутере ASUS, но достучаться не могу, видимо какого то правила не хватает.

Допустим белый IP VDS - 89.200.200.200 (интерфейс ens3) выступает в роли OpenVPN сервера. IP 172.16.10.1 (интерфейс tun0)

Домашний роутер ASUS, настроен OpenVPN клиентом, IP 172.16.10.6 (интерфейс tun15) внутренняя сеть 192.168.88.0/24

На VDS посмотрел tcpdump-ом, пакеты заворачивают в туннель, но что потом твориться на роутере АСУС посмотреть не знаю как. tcpdump там нет. Вот схема (https://disk.yandex.ru/i/RGiGpQ9rW2YmYw)

С внутренней сети 192.168.88.0 пингуется адрес VDS 172.16.10.1

 , ,

Brz3000
()

Не могу изменить время

Форум — Admin

Странная проблема со временем на сервере. Часы бегут на 37 секунд. Казалось бы, не страшно, но он является ntp-сервером для других устройств.
Пытался синхронизировать время через ntpdate, он показывает, что есть рассинхрон, но время не меняет. Пробовал ntpd -gq, пишет: «ntpd: time set -37.155943s», но время остаётся таким, как было. В итоге уже пытаюсь изменить время через date -s, и оно всё равно не меняется.
Система Debian 11, установлена на физическом железе, сервис systemd-timesyncd отсутствует. Есть systemd-timedated.service, но он похоже запускается только при необходимости. Как это побороть?

 ,

ARTIsshoque
()

Использование raid в Linux.

Форум — Admin

Пока пользуешься raid-1 и не волнует скорость, глубина всех труднострей плохо понятна. Ситуация сейчас такая:

raid10                   280 МБ/с запись, 380 МБ/с чтение.

dm-integrity + raid10    200 МБ/с запись, 280 МБ/с чтение.

dm-integrity + raid5     50 МБ/с запись, чтение даже не смотрел
                         (синхронизация падает до 20МБайт/с)

raid5                    какая-то приличная скорость, сравнимая с ZFS,
                         не помню деталей, такая конфигурация не интересна

ZFS                      < 140 МБ/с запись, синхронизация
                         с первой космической скоростью.

Неустраивает что медленно. Диски самые дешевые, SMR, на 5600об/с. Что не устраивали критику – сравнил с CMR на 7200 и не увидел заметной разницы, может процентов на 20 по скорости записи больших блоков и раза в два при записи кучи мелких. То что «raid на SMR не работает» – в значительной степени миф. Может на дисках WD и не работает, в данном случае Seagate.

Интересует в первую очередь скорость записи больших файлов, а не работа в качестве сервера СУБД (тогда CMR).

Во вторую очередь интересует контроль целостности записанных данных, ввиду понимания, что на сколько-нибудь большом объёме единичные ошибки это уже как правило, а не редкая случайность.

В чём проблема: применение dm-integrity сильно замедляет. Сравнивал без bitmap’а и без журнала, понимаю, они тормозят ещё больше. Конкретно raid5 замедляется катастрофически, и хуже того, я попробовал всё то же самое сделать на SSD и получил те же 50МБ/сек!!! Это полное фиаско!

Проблема не в дисках, проблема в самом линуксе! Скорость записи дисков порядка 160..80МБ/сек (снижается к концу диска) у SMR и 180..80 у CMR. SMR хуже ведут себя только на массе мелких записей, не фатально, раза в два всего.

Более того, я был шокирован, когда увидел, что изначально конструкция dm-integrity + raid10 работает быстрей, чем raid10 без ничего. Потыкался и сменил io scheduler с mq-deadline на bfq, скорость немного подрасла, и самое главное всё стало на свои места. raid10 без ничего всё же заметно быстрей, чем с dm-integrity. Но для raid5 ничего не помогает, он просто медленно пишет и совершенно непонятно где затык.

ZFS конечно всем хороша, но скорость записи у ней ограничена скоростью одного диска и через это не перепрыгнешь. Честно говоря, смотря на цифры raid10 без integrity понимаю, что хочу видеть что-то подобное, может процентов на 10 хуже, но никак не в разы.

Кроме того, в ZFS неудобно с шифрованием (zfs поверх четырех разделов dm-crypt – это какой-то идиотизм). В смысле с шифрованием все ок, но совершенно не ок с возможностью подмены данных (с обычным dm-crypt это невозможно, все развалится).

Кроме того, в ZFS нет writeback кеша на ssd. Только writethrough, что ограничивает скорость записи дисками (и нужно много памяти для самой zfs). Хотелось бы сверху всего иметь dm-cache.

Всё же видимо integrity и raid5 в linux катастрофически не совместимы и проще смириться и забыть оставшись с raid10. Может кто посоветует, как поднять скорость записи. Как я понимаю, в значительной степени проблема в том, что linux пишет прерывисто, когда работает с dm-integrity, есть лаг между окончанием предыдущей записи и началом следующей. При записи на сырой диск с помощью dd, при работе raid10 без integrity, такой проблемы нет. Странно, казалось бы проблема носит массовый характер, но в интернете мало об этом пишется. Каких-то толковых советов что подкрутить не нашел. Пробовал readahead увеличивать – без толку (правильно, тут же чистая запись), пробовал у raid5 stripe cache size увеличивать, ускоряет но лишь немного, и как я писал, смена io scheduler на bfq тоже несколько ускоряет.

В btrfs raid5 вроде ж не работает. Может стоит попробовать raid10 в btrfs? Там же вроде встроенная проверка целостности данных?

Может быть, имеет смысл разделить всё на два «раздела». Быстрый raid10 без integrity для часто изменяемых данных и медленный ZFS для остального. Но так неудобно.

Да и неудобство бэкапов с ext4. Снапшота нет, что там dump запишет – одному богу известно…

 , , ,

fk0
()

Организация тестового стенда

Форум — Admin

Прошу совета. Не получается додумать схему нарезки сети на vlan’ы для тестового контура.

Что имеется: Mikrotik hap ac2 (назовём его gw), отдельная машина с одним гигабитным портом и установленным Proxmox (pve).

Задача: нужно внутри Proxmox (pve) отдельный сегмент для экспериментов с различным ПО и организовать доступ через VPN к этому хозяйству.

Непонятно: как организовать vlan, чтобы у ВМ внутри Proxmox был свой выделеный сегмент? какой vlan на какой интерфейс вешать?

Предполагаю: на pve поставить pfSense (или chr не суть важно) и его средствами это сделать. возможно что я не прав. Можно было бы vpn повесить на gw и это упростит схему. Но pve имеет нехорошее свойство периодически мигрировать физически в другие места и каждый раз заниматься перенастройкой тестового контура не очень хочется.

 ,

mr_dedic
()

Выбор принтера с СНПЧ

Форум — Linux-hardware

Добрый день, камрады!

Собственно, интересует сабж. Требования:

наличие СНПЧ (очень заценил эту фичу, покупаешь архидешёвые чернила и только те, что закончились, а не как с картриджами HP всё в одном - один цвет закончился - покупай весь картридж),

полный функционал под Линуксом (текущий принтер Epson L210 имеет одну причуду: в режиме фотопечати под линем чуть-чуть полосит, оставляя тооооненькие белые полосочки, в венде норм, но венда - проприетарный глюкодром и держится только ради маминого софта, связанного со страхованием),

возможность печати большого количества страниц, на разных носителях (бумага, фотобумага, может картон),

если есть возможность прямой подачи бумаги по принципу «подхватил и потащил, без изгибания и прочего» - будет здорово (опять же, для печати на картоне это очень удобно),

адекватная цена, не как крыло от Боинга.

Формат А4, может быть А3, но А3 не так уж часто нужен.

Спасибо заранее за советы и предложения!

 , ,

Dorif
()

Забекапить диск на smb шару

Форум — Admin

Хочу забекапить умирающий hdd. монтирую шару (раскинутую виндовсом)

 sudo mount.cifs -o user=0 //192.168.1.200/D /media/rabbit/smb_drive/

и

$ sudo touch /media/rabbit/smb_drive/0
touch: невозможно выполнить touch для '0': Отказано в доступ

Что не так? Где посмотреть?

 ,

vityaba3
()

Узнать время использования Windows через Linux

Форум — Admin

Здравствуйте.

Можно ли узнать время включения и выключения компа с Windows через Live дистрибутив Linux’а (напр. Kali, Finnix, Manjaro…)?

ОС: Windows 7 (но интересно как и с другими версиями работает).

 , ,

GREAT-DNG
()

Обзор трёх одноплатников-альтернатив малины

Форум — Linux-hardware

моторола не моя, я просто разместил сабж

Firefly Station P2 поддерживает до 8 Гбайт ОЗУ, имеет SATA и M2 разъёмы, поддерживает Ubuntu 18.04/20.04, Armbian, EmuELEC, FreeBSD и Manjaro. А для самой платы, лежащей в основе микро-ПК, также есть Buildroot, RTLinux и OpenHarmony. Но это самый дорогой выбор: Firefly Station P2 c 4 Гбайт ОЗУ, предустановленным модулем eMMC (32 Гбайт) и NVMe SSD (256 Гбайт) стоит у 3Logic $449.

Два других, Hardkernel ODROID-N2+ и Radxa ROCK Pi 4A, поддерживают до 4Гбайт ОЗУ, но и стоят 173$ и 157$ соответственно.

Бенчи под убунту прилагаются.

 , , , ,

tiinn
()