LINUX.ORG.RU
ФорумAdmin

Proxmox raid1 zfs

 ,


0

1

Всем привет, сильно не бейте, начал осваивать проксмокс, на сервере два диска, проксмокс поставил на raid1 zfs(из коробки). Открыл веб морду и не могу понять почему он пишет что хранилища два local (pve) и local-zfs(pve).

ввожу в консоли команду

root@pve1:~# zpool status rpool

  pool: rpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	rpool       ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    sda3    ONLINE       0     0     0
	    sdb3    ONLINE       0     0     0

errors: No known data errors
root@pve1:~# df -h
Filesystem        Size  Used Avail Use% Mounted on
udev              3.9G     0  3.9G   0% /dev
tmpfs             793M  8.8M  785M   2% /run
rpool/ROOT/pve-1  1.7T  1.2G  1.7T   1% /
tmpfs             3.9G   43M  3.9G   2% /dev/shm
tmpfs             5.0M     0  5.0M   0% /run/lock
tmpfs             3.9G     0  3.9G   0% /sys/fs/cgroup
rpool             1.7T  128K  1.7T   1% /rpool
rpool/ROOT        1.7T  128K  1.7T   1% /rpool/ROOT
rpool/data        1.7T  128K  1.7T   1% /rpool/data
/dev/fuse          30M   20K   30M   1% /etc/pve

Это норма?выходит рейд1 работает?



Последнее исправление: cyberpunk_ (всего исправлений: 1)

Это нормально, просто эти хранилища - два разных датасета внутри самой zfs. Можешь увидеть их командой zfs list.

Deleted
()

рейд1 работает?

Да.

mord0d ★★★★★
()
Ответ на: комментарий от Deleted

Можешь увидеть их командой zfs list.

Диски он в zfs list никогда не увидит, только файловые системы (vdev filesystem).

mord0d ★★★★★
()
Ответ на: комментарий от mord0d

А диски тут и не причем. «Хранилища» проксмокса (в которых могут быть образы виртуалок, исошники, бекапы) могут быть и директориями и датасетами внутри самого zfs.

Deleted
()
Ответ на: комментарий от mord0d

zpool их не показывает.

pool: tank
state: ONLINE
scan: scrub repaired 0 in 0 days 05:28:49 with 0 errors on Fri Jun 21 05:28:49 2019
config:

NAME                                                STATE     READ WRITE CKSUM
        tank                                            ONLINE       0     0     0
          raidz1-0                                          ONLINE       0     0     0
            gptid/df4599bc-0117-11e9-be76-ac1f6b6461bc.eli  ONLINE       0     0     0
            gptid/e131e68c-0117-11e9-be76-ac1f6b6461bc.eli  ONLINE       0     0     0
            gptid/e5b7b916-0117-11e9-be76-ac1f6b6461bc.eli  ONLINE       0     0     0

errors: No known data errors

zfs показывает:

tank                                               5.60T  4.89T   128K  /mnt/tank
tank/archive                                      5.46T  4.89T  5.45T  /mnt/tank/archive
tank/cfg                                     25.4G  4.89T  25.4G  /mnt/tank/cfg
tank/iscsi                                        109G  4.89T   109G  /mnt/tank/iscsi
tank/backups                                    2.61G  4.89T  2.61G  /mnt/tank/backups
Deleted
()
Ответ на: комментарий от Deleted

У тебя каша в голове…

Про vdev:

A «virtual device» (vdev) describes a single device or a collection of devices organized according to certain performance and fault characteristics.
© zpool(8)

Про dataset:

A ZFS dataset of type filesystem can be mounted within the standard system namespace and behaves like other file systems.
© zfs(8)

И какое отношение filesystem(dataset) имеет к mirror(vdev) (RAID1) — остаётся загадкой.

mord0d ★★★★★
()
Ответ на: комментарий от mord0d

И какое отношение filesystem(dataset) имеет к mirror(vdev) (RAID1) — остаётся загадкой.

Датасеты находятся на зеркале из двух дисков (vdev). Изначально вопрос был вот об этом, если ты начальный пост перечитаешь:

Открыл веб морду и не могу понять почему он пишет что хранилища два local (pve) и local-zfs(pve)

Ответ: отображаемые хранилища - это датасеты, автоматически созданные инсталлятором проксмокса внутри зеркала.

Deleted
()
Последнее исправление: Deleted (всего исправлений: 1)
Ответ на: комментарий от Deleted

Подскажите пожалуйста, сейчас на сервере 8 гб памяти, хочу сделать две виртуалки, одну на 4-5 гигов озу, вторую под впн на 500 мегов. Есть ли какая то формула расчета памяти, сколько zfs надо чтобы сервер от нехватитки озу не лег? Пишут везде что эта ФС любит озу кушать.спасибо

cyberpunk_
() автор топика
Ответ на: комментарий от cyberpunk_

По-умолчанию он ест 50% всей доступной памяти. Ограничивать можно через:

options zfs zfs_arc_max=2147483648
В /etc/modprobe.d/zfs.conf. В данном случае это 2Гб. После этого обновить initramfs.

Но вообще 8Гб - это маловато в случае Proxmox с ZoL. ZFS на вики Proxmox.

Deleted
()
Последнее исправление: Deleted (всего исправлений: 1)
Ответ на: комментарий от Deleted

Мы отвечали на разные вопросы (я этого вопроса не заметил ващпе, так как читал снизу вверх).

mord0d ★★★★★
()
Ответ на: комментарий от cyberpunk_

500 мегов

ARC на 500M RAM будет шевелиться ОЧЕНЬ неохотно, но работать будет.

Пишут везде что эта ФС любит озу кушать.

По умолчанию ARC отжирает 50% RAM, это настраивается (выше уже описано как).

Есть ли какая то формула расчета памяти, сколько zfs надо чтобы сервер от нехватитки озу не лег?

Зависит от количества данных в пуле, в особенности тех, которые читаются/пишутся часто.

mord0d ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.