LINUX.ORG.RU
ФорумAdmin

zfs mount disk

 


0

1

Не сказать что хорошо знаком с zfs , скорей знакомлюсь, сегодня поднимал сервак целиком под зфс, точней допиливал уже поднятый, я решил отказаться от железных рейдов в пользу зфс, и вот думаю - а не рано ли я радовался и вот почему : сервак бекапов, все просто 2 ssd в raid1 и 2 hdd с данными в raid1. И тот и другой в zfs : data01 3.62T 91.3G 3.54T - - 0% 2% 1.00x ONLINE - rpool 232G 32.4G 200G - - 0% 13% 1.00x ONLINE -

В общем в процессе один из дисков отвалился и писал что он unavilable и пришло письмо с вот таким контентом :

ZFS has finished a scrub: eid: 20 class: scrub_finish host: fmo-node04 time: 2020-03-08 00:29:23+0700 pool: rpool state: ONLINE status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using ‘zpool replace’. see: http://zfsonlinux.org/msg/ZFS-8000-4J scan: scrub repaired 0B in 0 days 00:05:20 with 0 errors on Sun Mar 8 00:29:23 2020 config:

    NAME                                                     STATE     READ WRITE CKSUM
    rpool                                                    ONLINE       0     0     0
      mirror-0                                               ONLINE       0     0     0
        ata-Samsung_SSD_860_EVO_250GB_S4BFNG0M919047X-part3  ONLINE       0     0     0
        10068135009821291759                                 UNAVAIL      0     0 3.08M  was /dev/sdb

errors: No known data errors

сервак еще не в продакшене, так что я не сильно перебздел и решил попробовать потыкать все подряд, smartctl сказал что диск исправный, ну короче говоря я как то умудрился вывести диск из пула и завести обратно в пул только не как raid1 а как raid0 , не знаю был ли выход из такой ситуации вернуть его обратно в raid1 , но я не стал парится и переставил корневой раздел ( proxmox ) заново, и соотвественно корневой zpool был пересобран обратно в raid1

Только вот данных я не увидел, в смысле я понимаю что мне нужно было их как то примонтировать и посмотреть но что то вроде

zpool create или zpool online не срабатывало, я забил, т.к. времени не особо много и пересоздал пул с данными. Но (!) теперь я бздю :

  1. Как примонтировать диск с zfs данными к примеру в другой комп? в частности если он был в raid1 zploole ( ну мало ли как у меня умрет корневой раздел рано или поздно ) p.s. я так понимаю данные о пуле находятся на корневом разделе ? где почитать ?

  2. Что вообще почитать чтоб так не тупить ?

  3. Что случилось с диском ? ну в ссмысле он ж живой по факту… мож какие другие действия нужно было проделать.

Как примонтировать диск с zfs данными к примеру в другой комп?

  • Убедиться, что нет пулов с тем же именем на другой машине;
  • Экспортировать (отмонтировать) пул (не диск из пула!);
  • Вынуть диск;
  • Воткнуть диск на другой машине;
  • Импортировать пул (возможно потребуется ключ -f), пути будут те же;

я так понимаю данные о пуле находятся на корневом разделе ?

Данные о пуле находятся в самом пуле (на диске/разделе, где лежит этот пул, если пул размазан по нескольким дискам/разделам, данные продублированы на каждом из них).

Что вообще почитать чтоб так не тупить ?

Начни с zpool(8), zfs(8). Там даже примеры команд есть.

Что случилось с диском ?

Он мог отвалиться по любой причине, начиная от неконтакта шлейфа или недостатка питания.

ну в ссмысле он ж живой по факту

По какому факту? Я не вижу ни одного выхлопа, подтверждающего или опровергающего твоё утверждения, потому для меня этот диск находится в неопределённом состоянии.

Смотри S.M.A.R.T., грепай логи.

zpool create или zpool online не срабатывало

zpool create создаёт новый пул, оно тебе в данной ситуации не нужно.

Что тебе сказал zpool online rpool /dev/sdb?

Ещё у тебя есть вариант с zpool replace rpool /dev/sdb <new_device>, <new_device> может быть тем же самым диском, но тогда тебе понадобится ключ -f.

один из дисков отвалился и писал что он unavilable

RAID-1 считается ONLINE пока хотя бы один из дисков ONLINE. Для RAID-1 это не проблема, так как это проблема админа (диск нужно исправить или заменить).

mord0d ★★★ ()