LINUX.ORG.RU

Сообщения CoreeZz

 

zpool raid долго монтируется freebsd

Добрый день.

Freebsd 12.1 p9

Столкнулся с проблемой, что при загрузке системы долго монтируется zpool на этапе mounting local filesystems около 3 минут.

В связи с этим долго запускается система.

С чем может быть связано?

raid5, 3x4тб диска.

Если пробовать делать zpool import, также долго импортируется.

Можно ли как-то ускорить монтирование zpool`а?

System configuration:
Intel(R) Pentium(R) CPU G2010 @ 2.80GHz, 4096 MB RAM
uname -a
FreeBSD backupsrv 12.1-RELEASE-p9 FreeBSD 12.1-RELEASE-p9 backupsrv_12_1p9  amd64
gpart show

=>        34  7814037101  ada1  GPT  (3.6T)
          34  7814037101     1  freebsd-zfs  (3.6T)

=>        34  7814037101  ada2  GPT  (3.6T)
          34  7814037101     1  freebsd-zfs  (3.6T)

=>        34  7814037101  ada3  GPT  (3.6T)
          34  7814037101     1  freebsd-zfs  (3.6T)
zpool status
  pool: zbackup
 state: ONLINE
  scan: resilvered 33,5G in 0 days 00:09:36 with 0 errors on Fri Sep 11 10:18:37 2020
config:

        NAME           STATE     READ WRITE CKSUM
        zbackup        ONLINE       0     0     0
          raidz1-0     ONLINE       0     0     0
            gpt/disk1  ONLINE       0     0     0
            gpt/disk2  ONLINE       0     0     0
            gpt/disk3  ONLINE       0     0     0

errors: No known data errors

 , , ,

CoreeZz
()

DHCPD + Pacemaker

Всем привет, по-тихоньку познаю кластеризацию.

Так вот, в чем вопрос. Установил isc-dhcpd сервер, настроил, запускается без проблем демон.

Но когда я создаю ресурс в кластере для dhcpd (ocf:heartbeat:dhcpd) то он отказывается запускаться.

Failed Actions:
* DHCPD_start_0 on node1 'not installed' (5): call=14, status=complete, exitreason='Could not fully initialize the runtime environment.'

Перешарил всё, нашёл, как исправили баг в старых версиях Pacemaker.

Директория chroot_path была не правильно обозначена.

Указываю, всё равно выдаёт эту ошибку.

Кусок кода с ресурса DHCPD:

      <primitive class="ocf" id="DHCPD" provider="heartbeat" type="dhcpd">
        <instance_attributes id="DHCPD-instance_attributes">
          <nvpair id="DHCPD-instance_attributes-config" name="config" value="/usr/local/etc/named.conf"/>
          <nvpair id="DHCPD-instance_attributes-binary" name="binary" value="/usr/local/sbin/dhcpd"/>
          <nvpair id="DHCPD-instance_attributes-user" name="user" value="dhcpd"/>
          <nvpair id="DHCPD-instance_attributes-leases" name="leases" value="/var/db/dhcpd.leases"/>
          <nvpair id="DHCPD-instance_attributes-pid" name="pid" value="/var/run/dhcpd/"/>
          <nvpair id="DHCPD-instance_attributes-chrooted_path" name="chrooted_path" value="/var/db/dhcp"/>
        </instance_attributes>
        <operations>
          <op id="DHCPD-monitor-interval-30s" interval="30s" name="monitor"/>
          <op id="DHCPD-start-interval-0s" interval="0s" name="start" timeout="20s"/>
          <op id="DHCPD-stop-interval-0s" interval="0s" name="stop" timeout="20s"/>
        </operations>
        <meta_attributes id="DHCPD-meta_attributes">
          <nvpair id="DHCPD-meta_attributes-target-role" name="target-role" value="Started"/>
        </meta_attributes>
      </primitive>

Куда копать? Есть люди которые с Pacemaker`ом на «ты»?

ОС FreeBSD 12.0

«pcs» нет на FreeBSD, всё ручками через «cibadmin» делается.

Если задаю параметр «chrooted» value=«false» выдаёт ошибку «'Could not fully initialize the runtime environment.»

 , ,

CoreeZz
()

BIND9 + обратные зоны (FreeBSD)

Всем привет.

Столкнулся с такой ситуацией, что клиенты в локальной сети не могут получить обратную зону от DNS сервера.

Схема такая, у нас 4 DNS сервера, на первых двух хранятся внешние зоны + зона dmz. masterNetDNS+slaveNetDNS

На вторых двух хранятся зоны локальной сети. masterLanDNS+slaveLanDNS

У последних двух серверов в опции forwards стоят первые два сервера (внешние DNS) для резолва внешних зон и интернета, конечно же.

В чем кроется проблема, в том, что для внутренней сети нужно резолвить сервера с dmz.

При обращении клиента к серверам из dmz по DNS имени, запрос проходит хорошо, а вот если они пытаются обратиться по обратной зоне, то показывает большой и толстый.

Вывод nslookup c клиента (моего ПК) по DNS имени:

nslookup www
Server:  UnKnown
Address:  <masterLanDNSip>
Name:    www.dmz
Address: <wwwip>
Aliases:  <alias>

Вывод nslookup с клиента (моего ПК) по IP:

nslookup <wwwip>
Server:  UnKnown
Address:  <masterLanDNSip>
*** UnKnown can't find <wwwip>: Non-existent domain

То есть, master DNS локальной сети отлично отвечает на запрос по прямой зоне, но по обратной зоне отвечать не хочет.

Проблема исчезает если слэйвом слить зону с master DNS внешних сетей на master DNS локальной сети.

Но я не понимаю, почему он на прямую зону отвечает, а на обратную нет.

Конфиг на Master DNS внешних зон:

options {
    directory<->"/etc/namedb";
    pid-file<-->"/var/run/namedb/pid";
    dump-file<->"/var/dump/named_dump";
    statistics-file<--->"/var/stats/named.stats";
    check-names master ignore;
    listen-on<->{ 127.0.0.1; outip; masterNetDNSip; };
    version<--->"saddns1";
    forwarders<>{ outDNSip; 8.8.8.8; };
    also-notify>{ slaveNetDNSip; masterLanDNSip; };
    allow-transfer { slaveNetDNSip; masterLanDNSip; };
    allow-query { any; };
};
view "internal"
{
    match-clients { slaveNetDNSip; masterLanDNSip; corpnets };
    allow-recursion { slaveNetDNSip; masterLanDNSip; corpnets; };
    disable-empty-zone yes;
....
    zone "."
    {
<------>type hint;
<------>file "named.root";
    };
....
    zone "0.0.127.in-addr.arpa"
    {
<------>type master;
<------>file "master/localhost.rev";
    };
....
<------>zone "dmz"
    {
<------>type master;
<------>file "master/dmz.fwd";
<------>notify yes;
<------>also-notify { slaveNetDNSip; masterLanDNSip; };
<------>allow-transfer { slaveNetDNSip; masterLanDNSip; corpnets; };
<------>allow-query { any; };
    };
<------>zone "xxx.xxx.xxx.in-addr.arpa"
    {
<------>type master;
<------>file "master/dmz.rev";
<------>notify yes;
<------>also-notify { slaveNetDNSip; masterLanDNSip; };
<------>allow-transfer { slaveNetDNSip; masterLanDNSip; corpnets; };
<------>allow-query { any; };
    };

Конфиг на Master DNS локальной сети:

options {
    directory<->"/etc/namedb";
    pid-file<-->"/var/run/named/pid";
    dump-file<->"/var/dump/named_dump.db";
    statistics-file<--->"/var/stats/named.stats";
    listen-on<->{ 127.0.0.1; masterLanDNSip; };
    version<--->"Windows 3.11 :) ";
    forwarders >{ masterNetDNSip; slaveNetDNSip; };
    allow-recursion<--->{ corpnets; };
    recursion yes;
    allow-query><------>{ any; };
    query-source address * port 53;
};

Вывод nslookup c masterLanDNS сервера:

root@masterLanDNS:/etc/namedb# nslookup <wwwip> <masterLanDNSip> 
Server:         <masterLanDNSip>
Address:        <masterLanDNSip>#53

** server can't find xxx.xxx.xxx.xxx.in-addr.arpa.: NXDOMAIN

Кто что подскажет?

 , ,

CoreeZz
()

Миграция firewall+dhcp с FreeBSD на CentOS 7

Всем привет. Переходим по тихой грусти с FreeBSD на CentOS.

Есть люди, которые переходили с FreeBSD на CentOS перенося файрволл?

На сколько я понял, файрволл на CentOS сильно отличается от ядерного IPFW на FreeBSD.

Есть на CentOS аналоги ядерного IPFW, чтобы можно было перекинуть файлы с правилами?

Или придётся вручную переносить правила с FreeBSD на CentOS?

По поводу dhcpd... Демоны одинаковые на этих двух ОСях?

 , , , ,

CoreeZz
()

Отказоустойчивый кластер на Freebsd

Всем привет. Поступила задача от руководства организовать отказоустойчивый кластер на FreeBSD.

Версия FreeBSD 12.0-RELEASE

Есть два роутера на которых крутится DHCP демон, то есть MySQL база. Необходимо организовать отказоустойчивость этих роутеров, так как умирает один, умирает маршрутизация. Раньше отказоустойчивость реализовывалось с помощью CARP, но перестала работать. Так как релизы и пакеты никто не обновлял, сказали с карпом не разбираться, а найти новый способ решения.

Изучал статьи по кластеризации во FreeBSD, ставил HAST+Heartbeat, но натолкнулся на такую проблему, как невозможность контролирования такой ситуации как split-brain автоматически.

Поэтому хотим сделать кластер из 4 серверов.

2 сервера - маршрутизаторы, еще 2 сервера - мозг кластера, который будет управлять кластерами.

Натолкнулся на статьи Pacemaker+corosync, но все решения на Centos, Debian и т.п., также там не описана возможность выноса отдельного «мозга» который будет контролировать состояние кластера.

Есть ли решения отказоустойчивых кластеров не переходя на другие OS?

Посоветуйте за что взяться, может кто знает хорошие статьи по кластеризации во FreeBSD. HAST+Heartbeat отсекается, HAST+CARP отсекается. Второй день брожу по тырнетам ничего годного найти не могу.

 , ,

CoreeZz
()

RSS подписка на новые темы