LINUX.ORG.RU

Сообщения n0mad

 

«красная тряпка» - zfs. Диск без бэдов, а файл не читается! Есть какие мысли?

Форум — Admin

Есть: TOSHIBA DT01ACA300
Был уже топик, появилось 18 бэдов.
Пофиксил их HDD-Regenerator-ом.

Похоже что zfs помнит что этот файл был с бэдом:

errors: Permanent errors have been detected in the following files:

        T3T1S/:DL:<0x4146a>
        /opt/=pub/=DL/##BAD/install.esd.BAD


пытаюсь скопировать:
# dd if=install.esd.BAD of=install.esd.copy bs=1024k conv=noerror,sync
dd: ошибка чтения 'install.esd.BAD': Ошибка ввода/вывода
1735+0 records in
1735+0 records out
1819279360 bytes (1,8 GB, 1,7 GiB) copied, 43,5197 s, 41,8 MB/s
dd: ошибка чтения 'install.esd.BAD': Ошибка ввода/вывода
1737+1 records in
1738+0 records out
1822425088 bytes (1,8 GB, 1,7 GiB) copied, 43,5477 s, 41,8 MB/s
2302+3 records in
2305+0 records out
2416967680 bytes (2,4 GB, 2,3 GiB) copied, 57,2497 s, 42,2 MB/s


Файл не читается. Опять гружусь с флешки, прогоняю HDD-Regeneratoer - ошибок на диске нет, но файл не читается!

Какие будут предположения? А пока сейчас прогоню через Victoria и zpool scrub. И попробую потусторонний хак с запуском и остановкой scrub

РЕЗЮМЕ! Впрочем всё логично! Если не совпадает контрольная сумма - то этот файл не может быть прочитан! Его теперь удалять и записывать вновь!
Но сначала сделаю несколько контрольных шкрябов (scrub).
Тему отмечаю как решенную!

Эх... каждый «шкряб» по несколько часов :(
Слушать гудение десктопа.

 bad, , , ,

n0mad
()

Linux, zfs, устранение ошибки: Permanent errors have been detected in the following files: <0x1a>:<0x2f57> и других ошибок.

Форум — Admin

Продолжение темы zfs. Сокращу, раз админам нужно всё обезличенное.

Иногда происходит пересечение точек монтирования и попадаешь в локап - не можешь изменить точку монтирования потому что : «том занят». Помогает сброс точек монтирования к дефолтному значению:

#zfs inherit -rS mountpoint <VOL/SUBVOL>

Пытаясь решить какую то проблему с zfs - открывал здесь топики, и откуда то выросло утверждение: «zfs нельзя использовать с USB3»
Но я так и не увидел отсылки к источникам.
По логике - шина, совершенно не корелирует с файловой системой.
Если идут ошибки - они будут приводить к порче данных в любой ФС, и тут zfs имеет существенное преимущество - она сама распознаёт возникшие ошибки в данных, тогда как в других fs - вы просто окажетесь с испорченными данными не зная об этом!

zfs однозначно заявляет:
  pool: Safe
 state: ONLINE
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A
  scan: scrub repaired 0B in 10:26:41 with 1 errors on Sun Nov  9 10:50:43 2025
config:

        NAME        STATE     READ WRITE CKSUM
        Safe        ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdb2    ONLINE       0     0     2
            sdc2    ONLINE       0     0     2

errors: Permanent errors have been detected in the following files:

        /opt/=pub/=Media/Photo/Thematic/X30-Избранное/191013-СветЛамп/Select/VID_20191121_124201.3gp

Соответственно исправление ошибки делается простым удалением файла и восстановлением его из резервной копии.

Однако вылезает другая проблема:
errors: Permanent errors have been detected in the following files:

        <0x1a>:<0x2f57>
        <0x1a>:<0x5ecc9>

и пул стоит в ошибке.

Погуглив, в буржуйских форумах нашел решение, оно ПРИМИТИВНО!
Запускаешь scrub для этого устройства:
#zpool scrub <POOL>

Проходит несколько минут и останавливаешь scrub:
#zpool scrub -s <POOL>

и ОБАНА - диск чист!
Every 2,0s: zpool status -v Safe                  zer0: Mon Nov 10 01:49:05 2025

  pool: Safe
 state: ONLINE
  scan: scrub in progress since Mon Nov 10 01:37:57 2025
        203G scanned at 312M/s, 67.1G issued at 103M/s, 2.86T total
        0B repaired, 2.29% done, 07:54:33 to go
config:

        NAME        STATE     READ WRITE CKSUM
        Safe        ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdb2    ONLINE       0     0     0
            sdc2    ONLINE       0     0     0

errors: No known data errors

т.е. исправление ошибок на zfs пока делается совершенно просто:

1. Удаляются файлы с ошибками существующие в отчёте:
#zpool status -v

2. Появляющиеся после этого «ошмётки» удаляются запуском scrub.
#zpool scrub <POOL>

остановкой scrub чеерз 15 минут работы:
#zpool scrub -s <POOL>

3. Если статус ошибки остался - его надо очистить:
#zpool clear <POOL>

Потом можно запустить контрольный scrub который даст финальный отчёт об отсустствии ошибок.

Надеюсь это поможет тому кто столкнется с ошибками на zfs.

 , , ,

n0mad
()

Чем зашифровать облако? Напомните имя, пожалуйста! Встречал в репе Debian, приложение хранящее все метаданные в своих файлах.

Форум — Security

и в облаке создавалась структура типа ./001/002/003.dat

Просто в дистре есть скажем:

cryfs
Создаёт хранилище вида:
drwxr-sr-x 2 n0mad strong    3 ноя  9 20:31 005
drwxr-sr-x 2 n0mad strong    3 ноя  9 20:31 008
drwxr-sr-x 2 n0mad strong    3 ноя  9 20:31 00B
...
drwxr-sr-x 2 n0mad strong    3 ноя  9 20:31 FFE
drwxr-sr-x 2 n0mad strong    3 ноя  9 20:31 FFF
И там располагает структуру.


ecryptfs:
drwxr-sr-x 3 n0mad strong 3 ноя  9 20:31 ECRYPTFS_FNEK_ENCRYPTED.FWbz0qqaXqhH6-VL8Ra3a5CmNiHC-OIz2tihMsmbuZJgVaQPdG88ORpO0---
drwxr-xr-x 2 sys0p sys0p  2 ноя  9 20:54 ECRYPTFS_FNEK_ENCRYPTED.FWbz0qqaXqhH6-VL8Ra3a5CmNiHC-OIz2tihZpisonVIjZ2iR6.t4KFHeU--
drwxr-sr-x 2 n0mad strong 2 ноя  9 20:26 ECRYPTFS_FNEK_ENCRYPTED.FXbz0qqaXqhH6-VL8Ra3a5CmNiHC-OIz2tih3y1NtyQxGgr4gysHyNPXGvHDqAlP2lMebAlw1BSJEJ6-


encfs:
drwxr-xr-x 2 n0mad strong 2 ноя  9 20:54 g7TOiGmR90
drwxr-sr-x 3 n0mad strong 3 ноя  9 20:32 Hgpn0,,
drwxr-sr-x 2 n0mad strong 2 ноя  9 20:19 h-S85I1VmjUAC2ZTjL5Ay,Ct,rC


Но помню в репе был какой то проект называвшийся шифрованием для облака, но сейчас промпт к apt не смог подобрать. Помню что в облаке было всё от одного владельца, а смонтированное имело свои имена/время/права/владельцев не особо кореллирующих с именами в хранилище, и имена были простыми, числовыми, без кракозябр.

Это у меня очередной этап подборки инструментария - позволящего хранить в облаках типа ЯД/Мейл - Оригинальные время/дату и владельцев файлов.

Хотя конечно стрёмно... Там ещё не выпустили закона наказывающего за использование шифрования? Но открытого инструментария - позволящего хранить метаинформацию в своих служебных файлах, я не знаю :( а облака её не хранят.

 , ,

n0mad
()

Прошло почти 2 года. Приличное облако, с клиентом под Linux - появилось?

Форум — Admin

В прошлом треде: Облако для Линукс. Какое рекомендуете? так и не пришли к консенсусу.
Сейчас условия немного изменились. Мне уже не нужно коммерческого. Есть ли бесплатное облако, пусть и небольшое - нормально синхронизирующееся с локальным каталогом, сохраняя имена пользователей, права доступа и время/дату файлов?

Предлагать самому сделать облако - не надо, мне нужно простое клиентское решение.

Поискал на форуме - получил только свой тред
Нет, конечно засветился ещё: Syncthing: ваше личное, децентрализованное и свободное облако
Но для его работы, надо чтобы работало хотя бы одно твоё устройство!

 ,

n0mad
()

Разработчики, может знаете как больно пнуть команду Яндекс Диска?

Форум — Development

Суть в том что Яндекс Диск, не сохраняет дату/время исходного файла и считаю что это полное свинство.
И эти свиньи не отработали эту «говнофичу» даже когда я жаловался будучи коммерческим клиентом, 3 года. В итоге я их оставил, а они у меня успели убить время тьмы файлов (Использовал yandex-disk)
Они ставят время последней закачки.

Может кто знает, с какого бока можно их пнуть побольнее? Чтобы они наконец исправили эту ситуацию.

Ну и в идеале, стоит сохранять бит исполняемости. Чтобы дерево своих скриптов синхронизировалось на всех машинах.

 , ,

n0mad
()

Знатокам zfs: Как можно вычистить ошмётки?

Форум — Admin

Приветствую.
Есть у меня zfs. На диске всплыли бэды. естественно
zpool status -v <ТОМ> Даёт:

errors: Permanent errors have been detected in the following files:

        <0x1a>:<0x2f57>
        <0x1a>:<0x5ecc9>
        T3T1S/:DL:<0x2f57>
        <0x685>:<0x2f57>
        <0x685>:<0x4146a>
        <0x685>:<0x5ecc9>

там же были и файлы в которых были бэды. Файлы я удалил, а вот как удалить оставшиеся ошмётки?
Ну ладно, вместо :DL Можно создать новый и перенести, но блин.... Тащить:
T3T1S/:DL          1.49T   509G     1.49T  /opt/=pub/=DL

1.5T данных...
Может можно как то малой кровью? А не тасканием всех 3T туда-сюда.

 , ,

n0mad
()

Напомните команду пишущую гигабайтные файлы пока не исчерпается место?

Форум — General

С памятью увы, плохо.
Помню что была какая то эпопея с забивкой свободного пространства, и писались не нули, а случайные данные. Файлами по 1Гб, до исчерпания места.
Сейчас похоже на винте, появились бэды. Хочется это проверить забив всё свободное место и прочитав файлы. Но увы не помню чем пользовался :(

 freespace,

n0mad
()

zfs, снапшоты, клоны - куда делось место?

Форум — Admin

P.P.S. ОТБОЙ - НАШЕЛ МЕСТО!
В процессе массированного мувинга, эти 500Г Переехали в другую иерархию. т.е. я их не удалил, поэтому снапшот и занимал мало места.
Хотя было свободно 700Г а стало 400Г
----- Было:
Было 2 zfs пула.
На каждом свободно почти по 700Гб.

NAME                    USED  AVAIL     REFER  MOUNTPOINT
Safe                   2.87T   668G     31.5K  /zfs/=Safe
T3T1S                  1.85T   694G      168K  /zfs/=T3T1S


На T3T1S был снапшот уже удалённого DL:
NAME                            USED  AVAIL     REFER  MOUNTPOINT
T3T1S/:DL@250419-2315          1.38G      -     1.22T  -


Сделал клон этого снапшота. Скопировал его содержимое на свободные 600+600. Удалил клон, удалил снапшот - стало свободно 200+400=600Gb
NAME                USED  AVAIL     REFER  MOUNTPOINT
Safe               3.33T   200G     31.5K  /zfs/=Safe
T3T1S              2.14T   401G     9.70M  /zfs/=T3T1S

Ещё 600 куда то рассосались.
Я Рассчитывал, что при удалении снапшота 1.22T у меня появятся эти 1.22

Как можно вернуть эти 600Gb, которые потерялись после манипуляции?
Да и по ходу копирования - нашел дубли, и удалил.

P.S. Мало того, в снапшоте есть кталог _Win - в котором 496Гигов виндового барахла, качавшегося и с торрентов. Я перенёс это в другой пул (На этом нет столько свободного места). Удалил снэпшот а это место не появилось :(

P.P.S. ОТБОЙ - НАШЕЛ МЕСТО!
В процессе массированного мувинга, эти 500Г Переехали в другую иерархию. т.е. я их не удалил, поэтому снапшот и занимал мало места.

 ,

n0mad
()

Debian, MATE, Напоминания - Как ими управлять? И как вообще эта подсистема называется?

Форум — Desktop

Много лет пользуюсь MATE, и в первый раз увидел это «чудо».
На панели, появился циферблат с указанием количества напоминаний
Иконка напоминаний
Ткнувшись в иконку - получаю список напоминаний.
Окно напоминаний
Судя по всему, подтянутый из Гугл-календаря.
Кто знает, что это за механизм и где его панель управления? Он правда берёт из Гугл календаря, или я как то его настроил и забыл?
Вообще ситуация странная. Постоянно использую MATE, и ни разу не видел таких уведомлений, а тут на экспериментальном, убогом нетбуке - появилась эта иконка и подсосала мой календарь поздравлений. Я к сожалению сам не смог найти, как управлять этим механизмом и как он активировался? Есть подозрение, что он вылез откуда то из Evolution, но разбираться тут, на убогом ноутбуке - сложно. Надеюсь пока пишу это сообщение - он не повиснет.

 , , notifications

n0mad
()

Как в Debian 12 принято мониторить температуру HDD?

Форум — Linux-hardware

Привет.

Раньше была и замечательно работала утилита hddtemp,
сейчас на неё «забили» и она выкинути из Debian 12.
Тем не менее мониторить температуру дисков надо.
Насколько я помню, hddtemp можно было указать сразу несколько дисков, или даже маску.
Сейчас пока остался лишь:

# smartctl -a /dev/sda|grep Temp

Он показывает много мусора:
194 Temperature_Celsius     0x0022   100   100   000    Old_age   Always       -       33 (Min/Max 16/51)

И лишь одно устройство
Для «подчистки» вывода, можно использовать:
# smartctl -A /dev/sda | awk '/Temp/ {print $10}'
Получим просто 33, но я не совсем уверен что это будет всегда верно работать.

Но хотелось бы аналога hddtmpt /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg
Чтобы получить вывод температуры сразу для всех дисков в системе.
Смутно припоминаю, что hddtemp для каждого диска сначала писал его название а потом уже температуру.
Что может порекомендовать глубокоуважаемый Олл?

 , , ,

n0mad
()

Обновить винт из Linux, подскажите прогу читающую сектора и опять их записывающую.

Форум — Admin

Вернее даже не «починить», а тупо перезаписать уже существующую информацию. Неужели в Линукс так и нет инструмента для этой работы? Можно конечно с CD загрузить какой нибудь HDD Regenerator, но некошерно это. Хочется средствами Линукс.
Нагуглить не получилось, промпт не подобрал.

Суть в том что буквально вчера побилась некошерная XP на древнем Максторе в древнем системнике, но с DVD и FDD. Включается крайне редко, для специфических нужд, и выяснилось что ошибка чтения hdd.

Нагуглил свою же тему, поднимавшуюся тут, где расписал пошагово как восстановить, но восстанавливается тупой записью нулей в битые сектора.
Какие в Линуксе есть средства поиска/ремапа бэдов на винтах?

Помогает, но не хочется дожидаться когда информация «протухнет» и перезаписать её.

Просто тупо данные записываются в сектора и они «отживают».
И это не РЕМАП, не увеличивается Reallocated_Sectors_Count.

Неужели в Линукс нет такого инструментария? Может гуру скриптоплёты - придумают скрипт для подобной работы?

 , , regenerate

n0mad
()

Debian 12. В гуе у enp2s0 запрещен дефолтроутинг, после перезагрузки он заворачивается туда. Где копать?

Форум — Admin

У меня немного жуткая конфигурация. Есть enp2s0, и в локальной сети есть роутер, но 64кбит.
Когда приезжаю, активирую точку доступа на мобильнике и цепляюсь к нему через WiFi. Так и работаю, но получается два дефолтроутинга.
В гуе, зашел в «параметры соединений» и прописал явно на этот интерфейс только роутинг для локальной стети. «Передёрнул» (off/on) - Интерфейс поднялся как надо, и месяц работал. Но сегодня потребовалась перезагрузка. После перезагрузки - опять два дефолтроутинга. Если в гуе отключить enp2s0, а потом снова включить - то уже всё путём - остаётся лишь один маршрут. Но вот после перезагрузки - будет снова два и опять передёргивать...
Куда копать, чтобы этого избежать?
(Ну нет пока у меня нормального интернета в этой локации, а тут ещё ВТБ подкинул на халяву бесплатную связь до конца года, и вести интернет и за него платить - будет расточительно, когда и так десятки гигабайт пропадают.)
В /etc/network/interfaces - прописан лишь lo

 , ,

n0mad
()

Вопрос к гуру zfs - ЧТО ЗА ОШИБКА CKSUM?

Форум — Admin

Случилось то чем пугали, zfs не подружился с одним из USB3 винтов.
Оно как бы работает, и «No known data errors», но CKSUM=805

  pool: T4T3S
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-9P
  scan: scrub in progress since Mon Jun  9 08:29:14 2025
        28.6G scanned at 457M/s, 550K issued at 8.60K/s, 3.17T total
        0B repaired, 0.00% done, no estimated completion time
config:

        NAME         STATE     READ WRITE CKSUM
        T4T3S        ONLINE       0     0     0
          T4T3STORE  ONLINE       0     0   805

errors: No known data errors

Что означает это поле? Как понять то что ошибки есть но их нет?

Случилось это после того как система начала scrub сразу на 4 пулах. Я становил и по очереди все прогнал. На одном из пулов появилась такая ошибка.

Увидев - прогнал scrub ещё раз, теперь CKSUM=1.71K

 ,

n0mad
()

Дежурный режим 60W

Форум — Talks

Фото.

Собрался спать, вырубил свет и решил запечатлеть. Конечно качество не ахти.
Хотя в общем то практически каждая лампочка - отдельное устройство.

При чём тут МикроПК? Он где то там, работает в дежурном режиме, обслуживает 7 USB3 винтов, общей вместимостью 14Т. И всё вместе это потребляет как 60Ваттная лампа накаливания. Из них 20 потребляет коммутатор.


Перемещено dataman из workplaces

 micropc

n0mad
()

Debian 12 - chrome_crashpad_handler - где найти логи этой ситуации?

Форум — Admin

Заметил высокую активность дисков. Начал с #htop
Увидел много строк начинающихся с Linux 12
в #iotop - тоже активность как раз этих Linux 12.
Сделал ps ax|grep «Linux 12»
Получил порядка 20 вхождений:

1864604 tty2     Sl+    0:00 /usr/lib/chromium/chromium --type=renderer --crashpad-handler-pid=67874 --enable-crash-reporter=,built on Debian GNU/Linux 12 (bookworm) --change-stack-guard-on-fork=enable --disable-dev-shm-usage --lang=en-US --num-raster-threads=1 --renderer-client-id=3156 --time-ticks-at-unix-epoch=-1748235776699003 --launch-time-ticks=1063476548102 --shared-files=v8_context_snapshot_data:100 --field-trial-handle=3,i,2557248529116390454,1865338752403098426,262144 --variations-seed-version

Запустил journalctl -f - там ни чего по этой теме.
Подскажите последовательность действий для того чтобы узнать что произошло и что продолжает происходить?

И остановить... просто «killall -9 chromium» ?

 , crashpad,

n0mad
()

zfs - Хочется «странного» - спецсимволов в имени подтома. Кто что посоветует?

Форум — Admin

Ну предысторию, некоторые наверное помнят. Тяжелая ЧМТ «несовместимая с жизнью», неделя мозговой комы. Выжил и приходится выдумывать методы обхода результатов повреждений.
Память плохая и познакомился с файловой системой zfs. В этой системе, в каждом томе можно создать подтом, а в том томе ещё подтом, и.т.д.
Соответственно «подтом» выглядит как просто подкаталог. Но память плохая и хочется придумать «метку» для подтомов, чтобы их сразу было видно.
В предыдущем подходе - перебрал кучу символов, но все они запрещены в имени подтома.
Однако один нашел, и это":"
Сделал разветвлённую иерархию, ожидал подвоха - но пока не видел.
До сегодняшнего дня. Сегодня нашел в закромах UPS с USB портом, и решил его «понюхать» родным софтом, под оффтопиком. Скачал софт, разместил в T4T3S/:DL/Powercom. Загрузил машину с оффтопиком, смонтировал через САМБУ! Захожу в каталог и вместо :DL - вижу _VHAPA~5
Соответственно КОСЯК! :( - моя идея со спецсимволами в именах, провалилась. Видимо остаётся лишь 0, хотя... Прямо сейчас предположил и прокатило: "-". Посмотрим, какие подводные камни будут тут.

Какие будут мысли на эту тему? Как человеку с убитой памятью - визуально отличать подтома от подкаталогов? Какой бы придумать протокол именования?

 ,

n0mad
()

Какие в Линуксе есть средства поиска/ремапа бэдов на винтах?

Форум — Admin

Надеюсь здесь найдётся пруфлинк с описанием этой операции.
Можно конечно качнуть флэшку с виндой и Викторией. Но неужели это не исполнимо в Линукс? Или местные адепты начну топырить пальцы: «Если на винте попался бэд - ф памойку такой винт»?

P.S. Резюмирую, после пальцетопырчатого срача от «крутых» пацанов, благодаря комментариям порядочных гуру - решил проблему просто:

Для начала собрал список «битых» файлов:

find ./ -type f -exec cat '{}' \; |pv|dd of=/dev/null

Список файлов получил на консоль и скопировал в лог, выделив и скопипастив.
Предлагаю попробовать другой вариант:
find ./ -type f -exec cat '{}' \; >/dev/null 2>Errors.log

Но в этом варианте не будет прогресс-индикатора, зато список «битых» файлов должен получиться в файле.

Далее сделал список плохих секторов командой:
badblocks -o badblocks.log /dev/sdX

В этом файле - плохие блоки были сериями. Для каждой серии сначала проверил:
badblocks -o 01set.log /dev/sdX <LastBlock> <FirstBlock>

Получал список блоков этого диапазона.
Далее затирал эти блоки нулями:
badblocks -f -w /dev/sdX <LastBlock> <FirstBlock>

Снова проверял:
badblocks -o 01set.log /dev/sdX <LastBlock> <FirstBlock>
Получал пустой список - т.е. блоки исправились.

Теперь запустил:
smartctl -t long и по его результатам допишу.

НИКАКОГО РЕМАПА! Просто перезаписал данные в нечитаемые сектора!
Ну и опять прогоню рекурсивное чтение файлов, данные конечно неправильные, но ошибок быть не должно.
И на этом диске zfs, посмотрю что скажет: zpool scrub

P.P.S. Результаты -t long:
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       40%     39752         3352487288

Проверяем:
badblocks -o 07-sdd-badblocks.log /dev/sdd 3352488289 3352487288

Но! Факир был пьян! SMART и BADBLOCKS видимо оперируют разными размерами сектора!
# badblocks -o 07-sdd-badblocks.log /dev/sdd 3352488289 3352487288
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek
badblocks: Недопустимый аргумент during seek

Придётся повторить badblocks и посмотреть его видение!

 , ,

n0mad
()

Опять zfs, неужели никак нельзя починить?

Форум — Admin
Предисловие для "особо одарённых":
У меня нет ни каких претензий к zfs, и ни в чём я её не обвиняю.
У меня сложилась ситуация и надо найти из неё выход.
Не надо утруждать себя, и доказывать мне что я сам виноват. Я всю жизнь, делал продакшн системы на "том что есть", а не требовал крутого оборудования для продакшна, начиная с 90х, когда помогал поднимать первый в городе диалап интернет на OS/2, мультипортовках и аналоговых телефонных модемах, и это был ПРОДАКШН!
Так и сейчас. Есть определенное бюджетное оборудование и надо добиться его стабильной работы.



Потихоньку «роняю» zfs. (Вернее сама падает в нестабильных условиях)
Сейчас, после scrub имею:

  pool: T4T3S
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A
  scan: scrub repaired 2.17M in 09:12:56 with 38 errors on Fri Apr 18 18:37:59 2
config:

        NAME         STATE     READ WRITE CKSUM
        T4T3S        DEGRADED     0     0     0
          T4T3STORE  DEGRADED     0     0 4.44K  too many errors

errors: Permanent errors have been detected in the following files:

        T4T3S/:Dedup:<0x0>
        T4T3S/:pub:<0x0>

К сожалению - ошибки в самих подтомах, и не в отдельных файлах, которые можно удалить и перезалить. Неужели решение только в полной перезаливке подтомов?

И не надо хамить. Оригинальные данные надеюсь в стабильных условиях, но надо добиться стабильной работы дисков, на разных хостах через USB3.
В прошлый раз всё работало стабильно, но данные обновились и решил снова рсинкнуть. Подключил накопитель, и он стал DEGRADED после попытки rsync. К сожалению не отметил в чём разница подключений прошлого раза и этого.

 , ,

n0mad
()

Являются ли zpool scrub; zpool clear - альтернативой fsck?

Форум — Admin

всё время проходят разные флеймы по поводу починки zfs, но лично мне кажется что всё примитивно. Сначала надо запустить #zpool scrub <POOL> а потом, посмотрев результаты - исполнить zpool clear <POOL>.

Так ли это? Или я заблуждаюсь?

Так получилось что я использую часть zfs томов, поверх USB3 и порой, при «передёргивании» одного из устройств на хабе - один из zfs, падает в DEGRADE. Но там принципиально не было операций. В данный момент выпал том, с которым вообще ни чего не делал. Он смонтирован где то в /zfs

Насколько я понимаю, надо запустить zpool scrub <POOL> и watch zpool status <POOL> для просмотра прогресса. Когда scrub отрапортует сколько нашел и исправил ошибок - можно исполнять zpool clear <POOL>

Вспомнил что там ещё можно посмотреть ошибки, перед clear, и тупо удалить файлы с ошибками. Возможно после удаления надо сделать повторный scrub?

Хотя сейчас пишет:

config:

	NAME         STATE     READ WRITE CKSUM
	S1T1Archive  DEGRADED     0     0     0
	  S1T1A      DEGRADED     0     0    27  too many errors

errors: No known data errors

т.е. ошибок нет, но «too many erors».

 , ,

n0mad
()

Debian Bookworm и updatedb - как посмотреть логи?

Форум — Admin

Конечно сейчас набежится куча троллей, но нужна помощь.
Я пока так и не освоил journalctl и не понимаю как добыть нужные логи.

Есть Debian Bookworm, установлен по умолчанию. updatedb я не глушил. Шуршит каждый день, и стало интересно - сколько он шуршит по времени.

Ну значит прошу:
# journalctl -b -1|grep updatedb

В ответ - тишина.

Просто в #journalctl -b - прокорутил до 6:25, ни чего похожего не нашел.

В /etc/cron.daily есть locate - который запускает updatedb

Подскажите - где в дефолтном Дебиан искать логи updatedb?

****************************************
ПОССКРИПТУМ по результатам треда:
****************************************
ВХОДНЫЕ ДАННЫЕ:
Зоопарк из USB3 Винтов с ntfs и zfs:
2.5" 1T Transcend - ST1000LM035-1RK172
2.5" 2T Toshiba - TOSHIBA HDWL120
3.5" 1T Samsung - SAMSUNG HD105SI
3.5" 4T Toshiba - TOSHIBA MG04ACA400E
3.5" 4T Hitachi - HGST HUS726040ALE614

По отчёту: time locate /|wc -l >>updatedb.log
На всём этом живёт 41.508.070 файлов

locate к сожалению не ведёт логов. Ручной запуск обновления базы - дал следующие данные:

# time updatedb
real    680m24,601s
user    4m52,788s
sys     22m24,546s

База:
-rw-r--r-- 1 root root 717M апр 16 04:19 locatedb


По материалам треда - поставил plocate, просто:
# apt install plocate
Ручная индексация базы:
# time updatedb
real    111m52,880s
user    5m14,073s
sys     8m52,893s

База:
-rw-r----- 1 root plocate 935M апр 16 07:12 plocate.db

Да, есть проблемы с паматью и концентрацией, например сейчас сказал:
# locate /|wc -l >>updatedb.log

А надо было сказать: # time locate /|wc -l >>updatedb.log
Я понятия не имею - сколько оно ещё будет считать мои 35 миллионов файлов, и сколько потом это же будет считать plocate.
Пройдут часы, вернусь и дополню.

Вернулся. Как раз компьютер успокоился и не шуршит диском. Но переизмерять wc не стану. По прошлым подсчётам:
locate:
# time locate /|wc -l >>updatedb.log
real    38m58,342s
user    2m24,506s
sys     2m37,504s
41 508 070

т.е. список файлов он выводил 38 минут.

plocate:
# time plocate /|wc -l >>pupdatedb.log
real    99m16,560s
user    2m33,176s
sys     2m55,918s
41 508 070

Он работал аж 99 минут.

Решил упростить задачу. Есть у меня хостнейм: zer0 и в каких то бэкапах - везде это имя фигурирует в путях. Поищем его:

locate:
# time locate zer0|wc -l >>updatedb.log
real    0m12,923s
user    0m9,513s
sys     0m1,950s
598 320

Получется нашлось 600к вхождений этого слова в путях.

plocate:
time plocate zer0|wc -l >>pupdatedb.log
real    0m7,241s
user    0m5,916s
sys     0m1,328s
598 320

хотя на первом проходе он исполнил эту команду за 2:46

В целом plocate имеет преимущество лишь в скорости обновления базы, 111 минут вместо 680 у locate
При поиске, УВЫ! locate выигрывает, но этот выигрыш времени - ничтожен по сравнению с экономией времени создания индекса.

Вот такое получилось расследование инициированное желанием знать - сколько идёт индексация.

Спасибо всем позитивным помощникам, и жаль что я нагнал много оффтопика с тролями и хамами. В будущем постараюсь не отвечать подобным личностям и не портить тред, но могу забыть и не сдержаться.

 , ,

n0mad
()

RSS подписка на новые темы