LINUX.ORG.RU

Сообщения regsterr

 

nginx server_name $document_root

Добрый день! Помогите в паре вопросов?

1. Не могу сформировать server_name из имени хоста

   server_name ~^(?<root>.+?)\.hostname\.domain\.ru$;

   root /var/www/$root/public;
 

В результате хочу получить например имя_папки.имя_локальногохоста.domain.ru

на текущей VPS где:

$root = 1
echo ${HOSTNAME%%.*} = dev-test
должно получиться 1.dev-test.domain.com
 

Текущая конструкция не работает

2. Кто встречался с проблемой кеширования symlynk при использовании nginx+php-fpm Сейчас в конфиге прописано $document_root соответственно при использовании symlynk в root /var/www/$root/public, происходит кеширование (как я понял на уровне OPCACHE php-fpm).

Решение данной проблемы: 1. Перезапуск php-fpm который очистит кеш или как-то очищать кеш 2. Использование $realpath_root вместо $document_root

Вопрос есть какие либо тонкости в использовании $realpath_root вместо $document_root? Или простым языком можно просто заменить и использовать symlynk в root директории?

 ,

regsterr
()

nginx vhost ssl_protocols

Добрый день! Кто сможет подсказать? nginx/1.10.2 В nginx.conf прописано в контексте http

#SSL settings for all vhost
ssl_protocols TLSv1  TLSv1.1 TLSv1.2;
ssl_ciphers ECDHE-RSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-SHA:ECDHE-RSA-AES256-SHA384;
ssl_stapling on;

Создаю vhost В нем отдельно указываю

ssl_protocols TLSv1.1 TLSv1.2;

Конструкция не работает, т.е параметры применяются глобально.

Убираю настройки из nginx.conf, но оставляю в vhost. Настройки применяются по умолчанию.

Получаться что настройки в контексте server{ не работают.

Вопрос, как заставить vhost работать с заданными TLS?

 

regsterr
()

Strongswan ipsec transport mode

Добрый день! Кто сможет помочь? Вопрос встал в тупик. Есть два сервера в Hetzner, между ними работал в transport mode туннель под управлением strongswan. Работал стабильно без сбоев около полугода. По неизвестным причинам данный vpn перестал работать. Привожу конфиг обоих сторон

1-host

config setup
        uniqueids=yes
        charondebug=1

conn %default 
        type=transport
        keyingtries=%forever
        authby=secret
        esp=aes256-sha1
        ike=aes256-sha1-modp1024
        keylife=8h
        keyexchange=ikev2
        dpddelay=30s
        dpdtimeout=120s
        dpdaction=hold
        left=*.*.*.*


conn balancer 
     leftsubnet=172.16.0.0/24
     right=*.*.*.*
     rightsubnet=192.168.70.0/24
     auto=start

2-host

config setup
        uniqueids=yes

conn %default 
        type=transport
        keyingtries=%forever
        authby=secret
        esp=aes256-sha1
        ike=aes256-sha1-modp1024
        keylife=8h
        keyexchange=ikev2
        dpddelay=30s
        dpdtimeout=120s
        dpdaction=restart
        mobike=no
        aggressive=yes
        inactivity=5000
        left=*.*.*.*




conn dev 
     leftsubnet=192.168.70.0/24
     right=*.*.*.*
     rightsubnet=172.16.0.0/24
     auto=start

При установке соединения получаем с 1-го хоста получаем

initiating IKE_SA balancer01[9] to *.*.*.*
generating IKE_SA_INIT request 0 [ SA KE No N(NATD_S_IP) N(NATD_D_IP) N(HASH_ALG) N(REDIR_SUP) ]
sending packet: from *.*.*.*[500] to *.*.*.*[500] (1276 bytes)
received packet: from *.*.*.*[500] to *.*.*.*[500] (330 bytes)
parsed IKE_SA_INIT response 0 [ SA KE No N(NATD_S_IP) N(NATD_D_IP) N(HASH_ALG) N(MULT_AUTH) ]
authentication of '*.*.*.*' (myself) with pre-shared key
establishing CHILD_SA balancer
generating IKE_AUTH request 1 [ IDi N(INIT_CONTACT) IDr AUTH N(USE_TRANSP) SA TSi TSr N(MOBIKE_SUP) N(ADD_4_ADDR) N(ADD_4_ADDR) N(ADD_4_ADDR) N(ADD_6_ADDR) N(MULT_AUTH) N(EAP_ONLY) ]
sending packet: from *.*.*.*[4500] to *.*.*.*[4500] (444 bytes)
received packet: from *.*.*.*[4500] to *.*.*.*[4500] (124 bytes)
parsed IKE_AUTH response 1 [ IDr AUTH N(AUTH_LFT) N(TS_UNACCEPT) ]
authentication of '*.*.*.*' with pre-shared key successful
IKE_SA balancer01[9] established between *.*.*.*[*.*.*.*]...*.*.*.*[*.*.*.*]
scheduling reauthentication in 10205s
maximum IKE_SA lifetime 10745s
received TS_UNACCEPTABLE notify, no CHILD_SA built
failed to establish CHILD_SA, keeping IKE_SA
establishing connection 'balancer' failed

При установке соединения со 2-хоста

establishing CHILD_SA develspace
generating CREATE_CHILD_SA request 3 [ N(USE_TRANSP) SA No TSi TSr ]
sending packet: from *.*.*.*[4500] to *.*.*.*[4500] (332 bytes)
received packet: from *.*.*.*[4500] to *.*.*.*[4500] (76 bytes)
parsed CREATE_CHILD_SA response 3 [ N(TS_UNACCEPT) ]
received TS_UNACCEPTABLE notify, no CHILD_SA built
failed to establish CHILD_SA, keeping IKE_SA
establishing connection 'develspace' failed

Перерыл все не знаю куда копать.

PS если на обоих концах вместо trasport tunnel, то все работает.

 

regsterr
()

mysql percona cluster

Доброго времени суток! Нужен совет по кластеру... Когда-то очень давно настраивали, поэтому не спрашивайте почему так. В основу скорее всего лег мануал http://wiki.opennet.ru/Galera

В итоге 3 ноды и HAPROXY в режиме мульти-мастер(пишем и читаем только на одну ноду), две остальные просто простаивают.

HAPROXY был настроен на 1 ноду и с ней работал, на сервере вылетел hdd резервный и было принято решение его заменить. Перевожу HAPROXY на работу с 2 нодой, дабы обеспечить работу проекта.

Не разобравших в тонкостях мануала(выше) Останавливаю сервер меняю HDD, стартую и опа репликация не идет 1 ноды. В логах на 2 и 3 видно что нет 1, и на этом все.

1 нода запускалась с параметром wsrep_cluster_address=«gcomm://» и была главной.

1 нода не работает несколько дней

Вижу 2 варианта, но есть сомнения 1. Остановить кластер сделать 2 ноду по варианту 1 ноды и стартануть 2 а потом 3 ноду и 1 ноду. 2. остановить 2 и 3 ноду и запустить 1 2 3. Но тут вопрос что будет?

3. Остановить кластер, тупо слить файлы с 2 ноды на 1 и запустить 1 2 3 4. Как можно запустить без остановки проекта?

Кто сможет проконсультировать? В долгу не останусь.

 , ,

regsterr
()

unison sudo

Добрый день! Кто поможет?

Вводные данные 1. Centos7 2шт 2. Пользователь sync на обоих машинах 3. Каталоги на обоих машина с chown nginx:nginx

необходимо синхронизировать эти каталоги с сохранением chown nginx:nginx

Когда делаем от root синхронизацию то все работает. Когда делаем от sync то пользователь sync не имеет прав на смену владельца каталога.

Как выйти из этой ситуации?

P.S sync через sudo может выполнить смену владельца т.к права прописаны в sudoers

 

regsterr
()

nginx location

Доброго времени суток!

При открытии

http://system.net/frame/main?fid=e542997f54 происходит перевод на http://system.net/ т.к срабатывает первый по списку локайшен.

В папке frame нет папки main, это вызов акшена. Но в папке frame/index.php который и обрабатывает этот вызов.

Если запросить http://system.net/frame/index.php, то index.php выводиться.

Данная конструкция работает под Apache в каталоге frame/ находится .htaccess

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d [OR]
RewriteCond %{REQUEST_URI} ^/$
RewriteCond %{REQUEST_URI} !^/tasks/
RewriteRule (.*) index.php/$1

Его конвертировал в формат nginx, но конструкция так и не работает.

Помогите разобраться пожалуйста с локейшеном для вызова данной конструкции.

root /var/www/system;

server {
    listen 192.168.72.1:80;
    server_name system.net;

        
    access_log  /var/log/nginx/system.com.access.log;
    error_log  /var/log/nginx/system.com.error.log;


    location ~* /(images|css|js)/ {
           expires max;
    }

    location ~* \.(pdf)$ {
        access_log      off;
        expires           max;
    }

    location = /favicon.ico {
        try_files $uri =204;
        
    }

    location / {
        include fastcgi_params;
        fastcgi_param PATH_INFO $uri;
        fastcgi_param SCRIPT_NAME /wm.php;
        fastcgi_param SCRIPT_FILENAME $document_root/wm.php;
        fastcgi_pass dynamic;
    }


    location ~ ^/(tasks|tests|sso|webservice-0.3.1|rest|frame)/.+?\.php$ {
        try_files $uri /;
        include fastcgi_params;
        fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
        fastcgi_pass dynamic;
    }

    location ~ ^/(status|ping)$ {
        include fastcgi_params;
        fastcgi_index index.php;
        fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
        fastcgi_pass dynamic;
    }
}

 

regsterr
()

Load Balancing NGINX HTTP and HTTPS

Добрый день! Схема такая nginx1(балансировщик нагрузки) nginx2(http и https) вебсервер с vhost nginx3(http и https) вебсервер с vhost

Как заставить nginx1 пропускать http и https трафик до бенкендов nginx2 и nginx3?

 

regsterr
()

Nginx SSL termination

Добрый день! Тестовый стенд из Nginx(просто балансировка) за ним Nginx Web сервер. Балансировщик настроен просто.

stream {
    upstream stream_backend {
         server backend1.example.com:80;
         server backend2.example.com:80;
         server backend3.example.com:80;
    }
 
    server {
        listen                443 ssl;
        proxy_pass            stream_backend;
 
        ssl_certificate       /etc/ssl/certs/server.crt;
        ssl_certificate_key   /etc/ssl/certs/server.key;
        ssl_protocols         SSLv3 TLSv1 TLSv1.1 TLSv1.2;
        ssl_ciphers           HIGH:!aNULL:!MD5;
        ssl_session_cache     shared:SSL:20m;
        ssl_session_timeout   4h;
        ssl_handshake_timeout 30s;
   
     }
}
Проблема в том что если я включаю SSL на балансировщике и хожу на сайт через него, то сайт частично отдается по https, а частично по http Если ходить выключаем https и ходим по http, то все работает.

Перемещено leave из general

 

regsterr
()

RSS подписка на новые темы