LINUX.ORG.RU

Сообщения gudron

 

VyOS. Как пробросить внешних IP на внутренние в локальную сеть?

Форум — General

Доброго времени суток всем.

C тем как работать в VyOS разобрался. Настроил интерфейсы,настроил основной gateway, настроил юзеров. С этим проблем нет..

Есть проблема с пробросом всего приходящего на несколько внешних IP на насколько внутренних. На данный момент необходимо пробрасывать по сути One-to-One. Тоесть все приходящее, например на 120.13.123.123, должно пробрасываться внутрь на локальный адресс 10.0.100.3.

Если ближе к телу то имеем следующее:

Interface        IP Address                        S/L  Description
---------        ----------                        ---  -----------
eth0              120.13.123.20/24                u/u  MAIN-WAN 
eth1             10.0.101.2/24                     u/u  LAN 
eth2              120.13.123.123/24                u/u  TEST-1-WAN 
eth3              120.13.123.124/24                u/u  TEST-2-WAN 

Я хочу что бы все приходящее на eth2 (120.13.123.123) пробрасывалось в локальную сеть через eth1 на локальный адресс (10.0.100.3).

Что на данный момент делаю я, пробрасываю на One-to-One, по примеру из Офф. гайда и просто какой-то статьи в инете.

set nat source rule 10 source address 10.0.100.3
set nat source rule 10 outbound-interface eth1
set nat source rule 10 translation address 120.13.123.123

set nat destination rule 10 inbound-interface eth2
set nat destination rule 10 destination address 120.13.123.123
set nat destination rule 10 translation address 10.0.100.3

Но к сожалению не работает. Пинг не проходит, telnet тоже, в общем к конечной машине в локальной сети не получается достучаться.

Заранее спасибо.

 , , , ,

gudron
()

Как настройка почтовый сервер для использования нескольких доменов и некольких ssl-сертификатов?

Форум — Admin

Всем привет. Настраивал почтовый сервер на основе этой статьи. И все было хорошо и замечательно пока не пришла задача поднять еще несколько доменов для почтовых рассылок.

Тоесть ситуация такая 3 домена:

  • example.com - здесь обычная почтовая кореспонденция
  • subscribe.example.com - здесь различные почтовые рассылк
  • tech.example.com - здесь почтовые рассылки для тех. персонала

Сейчас сервер настроен только для домена example.com. А в частности и SSL-сертификат только на это имя. Как выяснилось postfix из коробки не умеет возможность использовать отдельный сертификат на отдельный домен. Не хотелось бы покупать wildcard сертификат только ради того что бы заставить работать почтовик на нескольких доменах.

В интернетах вычитал, что народ ставит в качестве прокси nginx (например тут), но что-то до меня не доходит как это работает. Почему все поголовно выключают опции imap_auth , smtp_auth и включают http_auth, с сылкой на какой-то урл, который вставляет парочку заголовков. Как вообще настроена связка здесь между nginx и postfix .

Итого есть несколько вопросов:

  • Реально ли вообще реализовать вышесказанное через nginx-proxy?
  • Существует ли другой способ реализовать задуманное, не поднимая еще один сервер и выделяя еще один IP-адрес

Заранее спасибо за помошь.

 , , , ,

gudron
()

Capistrano. Dont know how to build task. И прочее.

Форум — Web-development

Доброго времени суток. Есть проблема с деплоем Ruby on Rails приложения. В целом проблемы две:

  • 1 - проблема с хуками, before\after
  • 2 - если временно исключить хуки, то при cap deploy: «undefined local variable or method `tasks_without_stage_dependecy`»

И так к нашим кроликам: Файл Capfile

#load 'deploy'
# Uncomment if you are using Rails' asset pipeline
    # load 'deploy/assets'
Dir['vendor/gems/*/recipes/*.rb','vendor/plugins/*/recipes/*.rb'].each { |plugin| load(plugin) }
load 'config/deploy.rb' # remove this line to skip loading any of the default tasks

Файл deploy.rb:


hz_config =
    {:name => "www.example.com",
     :domain => "www.example.com",
     :path => "www.example.com",
     :gitname => "example.git",
     :shared_paths => {"import" => "tmp/import"}}

set :application, hz_config[:name]

# set :default_environment, {
#   'PATH' => "/usr/local/rvm/gems/ruby-1.9.3-p194/bin:$PATH",
#   'RUBY_VERSION' => 'ruby 1.9.3',
#   'GEM_HOME'     => '/usr/local/rvm/gems/ruby-1.9.3-p194/',
#   'GEM_PATH'     => '/usr/local/rvm/gems/ruby-1.9.3-p194/',
#   'BUNDLE_PATH'  => '/usr/local/rvm/gems/ruby-1.9.3-p194/'  # If you are using bundler.
# }

set :rvm_ruby_string, '1.9.3' # you probably have this already
set :rvm_type, :system # this is the money config, it defaults to :system

# Deploy to & branch
#set :deploy_to, "/home/webmaster/#{hz_config[:path]}/rails"
#set :branch, "master"

set :deploy_to, "/home/webmaster/#{hz_config[:path]}/test"
set :branch, "development"

# Path settings
set :mongrel_conf, "#{current_path}/config/thin_cluster.yml"

# SSH and Network settings
#default_run_options[:pty] = true
set :ssh_options, { :forward_agent => true, :port => '1234' }
set :user, "webmaster1234"
set :use_sudo, false

#role :app, %w{example.com}
#role :web, %w{example.com}
#role :db,  %w{example.com}

after 'deploy:setup', 'custom:create_shared_directories'

namespace :deploy do
  task :start do
    run "thin start -C#{mongrel_conf}"
  end
  task :stop do
    run "thin start -C#{mongrel_conf}"
  end
  task :restart do
    run "thin restart -C#{mongrel_conf} --onebyone"
  end

end

namespace :customs do
  task :setup do

  end
  # create directories for images
  desc "Create directories for images"
  task :create_shared_directories do
    on roles(:all) do |host|
      hz_config[:shared_paths].each do |shared, real|
        mkdir "-p #{shared_path}/#{shared}"
      end
    end
  end

# make the symlink for public/uploads
  desc "Make the symlink for public/uploads"
  task :make_public_images_files do
    on roles(:all) do |host|
      hz_config[:shared_paths].each do |shared, real|
        rm "-rf #{release_path}/#{real}"
        ln "-fs #{shared_path}/#{shared} #{release_path}/#{real}"
      end
    end
  end

  desc "Copy config cluster files"
  task :copy_configs do
    on roles(:all) do |host|
      cp "#{shared_path}/config/database.yml #{release_path}/config"
      cp "#{shared_path}/config/thin_cluster.yml #{release_path}/config"
    end
  end
#after "deploy:update_code", :copy_configs

  desc "Compile assets"
  task :pipeline_precompile do
    on roles(:all) do |host|
      cd '#{release_path}' && "#{rake} assets:precompile RAILS_ENV=#{rails_env}"
    end
  end
end

Файл deploy/staging.rb:

server 'example.com', roles: [:web, :app, :db]

# GIT
set :scm, "git"
set :repository, "user@host.com/~/git/#{hz_config[:gitname]}"
set :deploy_via, :remote_cache
set :git_shallow_clone, 1
set :copy_exclude, [".git", ".gitignore"]
set :keep_releases, 3

Вывод команд:

rails -v
Rails 3.2.3

gem list 
...
capistrano (3.0.0)
capistrano-ext (1.2.1)
...

Проблема в том что если использовать хуки, при cap deploy жалуется «Dont know how to build task %hook name%. Если же закомментировать строчки с вызовом хуков - „undefined local variable or method `tasks_without_stage_dependecy`“

Все это безобразие настраивается на Windows 7 к сожалению, ну тут уж корпоративная политика, поделать ничего не могу. Работает в рамках RailsInstaller.

Вот такая вот проблема. Заранее спасибо за помощь.

 , , , ,

gudron
()

Ubuntu. Keyweb виртуалка. Iptables.

Форум — Admin

Есть виртуалка у хостера keyweb. На борду виртуалки Ubuntu 12.04.

Distributor ID:	Ubuntu
Description:	Ubuntu 12.04.2 LTS
Release:	12.04
Codename:	precise

Суть проблемы в том что на почти любые действия через iptables, оный выдает сообщение о том что такой цепочки не существует. Интересно то что дает создать цепочку

user@hostname:~$ sudo iptables -N SSH
user@hostname:~$ sudo iptables --list
Chain INPUT (policy ACCEPT)
target     prot opt source               destination         

Chain FORWARD (policy ACCEPT)
target     prot opt source               destination         

Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination         

Chain SSH (0 references)
target     prot opt source               destination 
Но ничего не дает с ней делать. Как в прочем и с другими цепочками.
user@hostname:~$sudo iptables -A SSH -m state --state NEW -m recent --name SSH --update --seconds 60 --hitcount 2 -j DROP
iptables: No chain/target/match by that name.

Такая ситуация и на множество других iptables команд.

Куда копать что-то ума не приложу. В чем вообще проблема? Заранее спасибо за помощь.

 , keyweb, ,

gudron
()

Как организовать свой маленький распределенный хостинг.

Форум — General

Доброго времени суток. Возможно термин "распределенный" не совсем походит для моей задачи, но все же:

Ситуация то вообщем-то простейшая, есть 2 vps-сервера, на которых и размещаю своих клиентов. Щас все достаточно просто завязано: 2 сервера

1) nginx+php-fpm

2) MySQL

Со временем растет нагрузка, да провайдер vps изредка огорчает упавшей виртуалкой, задумываюсь как вообще теоретически дальше масштабировать.

В целом вопрос топика как организовывать файловую систем для различных вариантов организации серверов. В интернете искал, да только нашел по большей части из разряда «домашний сервер» или «все на одном сервере».

И так, допустим я переношу php-fpm на другой сервер, как в этом случае nginx'у получать статику? Хотя для этого случая возможно и будет допустимым вариант просто примонтировать удаленную ФС по ssh.

Но что взрослые дяди делают когда бекэндов несколько? Например есть 1 сервер с nginx'oм и множество серверов с FAST-CGI(uWSGI, etc), здесь уже файловые системы необходимо синхронизировать между собой. На сколько верным будет использовать в данном случае "Распределённые файловые системы"? И в правильном ли направлении вообще капаю? Если в правильном - какую ФС предпочтительнее выбирать для web-проектов?Насколько стабильна будет их работа в условиях виртуальных машин?

В общем, если есть у кого опыт в подъеме подобных архитектур, буду благодарен за наводящую информацию. Заранее спасибо, прошу не пинать за нубство.

 , , ,

gudron
()

FreeBSD 9.0 + rssh jail.

Форум — Admin

Добрый день\вечер\ночь.

Дано:

Виртуальный сервер на Hetzner с FreeBSD 9.0. Его предназначение хостить некоторые свои сайтики + сайтики партнеров. Настроен nginx+php-fpm с chroot.(настраивал по примеру с napych.ru .Со строны php - пользователь заперт в клетке и тут все

хорошо.

Необходимо:

Организовать доступ по sftp, с условием что необходимо так же ограничить пользователя в четко отведенной ему песочнице.

Решение: На wdev.tk нашел рекомендацию использовать rssh. Много где чего гуглил, вроде бы уже скопировал все что мог для воссоздания необходимого для jail root кружения.В основном настраивал по этой - http://wiki.e-shell.org/ инструкции. Там создается root окружение в chroot папке, копируются бинарники с so-шниками и прочее.

Результат никакой, sftp конектится, проходит авторизацию, а потом подключение сбрасывается, без объяснения каких либо причин.

# sftp -v test.dev@xxx.yyy.zzz.aaa
OpenSSH_5.8p2_hpn13v11 FreeBSD-20110503, OpenSSL 0.9.8q 2 Dec 2010
debug1: Reading configuration data /etc/ssh/ssh_config
debug1: Connecting to xxx.yyy.zzz.aaa [xxx.yyy.zzz.aaa] port 22.
debug1: Connection established.
debug1: permanently_set_uid: 0/0
debug1: identity file /root/.ssh/id_rsa type -1
debug1: identity file /root/.ssh/id_rsa-cert type -1
debug1: identity file /root/.ssh/id_dsa type -1
debug1: identity file /root/.ssh/id_dsa-cert type -1
debug1: identity file /root/.ssh/id_ecdsa type -1
debug1: identity file /root/.ssh/id_ecdsa-cert type -1
debug1: Remote protocol version 2.0, remote software version OpenSSH_5.8p2_hpn13v11 FreeBSD-20110503
debug1: match: OpenSSH_5.8p2_hpn13v11 FreeBSD-20110503 pat OpenSSH*
debug1: Enabling compatibility mode for protocol 2.0
debug1: Local version string SSH-2.0-OpenSSH_5.8p2_hpn13v11 FreeBSD-20110503
debug1: SSH2_MSG_KEXINIT sent
debug1: SSH2_MSG_KEXINIT received
debug1: kex: server->client aes128-ctr hmac-md5 none
debug1: kex: client->server aes128-ctr hmac-md5 none
debug1: sending SSH2_MSG_KEX_ECDH_INIT
debug1: expecting SSH2_MSG_KEX_ECDH_REPLY
debug1: Server host key: ECDSA a2:5b:25:38:36:cc:38:04:e0:31:01:93:02:5b:23:92
debug1: Host 'xxx.yyy.zzz.aaa' is known and matches the ECDSA host key.
debug1: Found key in /root/.ssh/known_hosts:2
debug1: ssh_ecdsa_verify: signature correct
debug1: SSH2_MSG_NEWKEYS sent
debug1: expecting SSH2_MSG_NEWKEYS
debug1: SSH2_MSG_NEWKEYS received
debug1: Roaming not allowed by server
debug1: SSH2_MSG_SERVICE_REQUEST sent
debug1: SSH2_MSG_SERVICE_ACCEPT received
debug1: Authentications that can continue: publickey,keyboard-interactive
debug1: Next authentication method: publickey
debug1: Trying private key: /root/.ssh/id_rsa
debug1: Trying private key: /root/.ssh/id_dsa
debug1: Trying private key: /root/.ssh/id_ecdsa
debug1: Next authentication method: keyboard-interactive
Password:
debug1: Authentication succeeded (keyboard-interactive).
Authenticated to xxx.yyy.zzz.aaa ([xxx.yyy.zzz.aaa]:22).
debug1: Final hpn_buffer_size = 2097152
debug1: HPN Disabled: 0, HPN Buffer Size: 2097152
debug1: channel 0: new [client-session]
debug1: Enabled Dynamic Window Scaling

debug1: Requesting no-more-sessions@openssh.com
debug1: Entering interactive session.
debug1: Sending subsystem: sftp
debug1: client_input_channel_req: channel 0 rtype exit-status reply 0
debug1: client_input_channel_req: channel 0 rtype eow@openssh.com reply 0
debug1: channel 0: free: client-session, nchannels 1
debug1: fd 0 clearing O_NONBLOCK
Transferred: sent 1784, received 1552 bytes, in 0.1 seconds
Bytes per second: sent 13574.5, received 11809.2
debug1: Exit status 1
Connection closed

Может кто уже занимался подобным, есть ли какие либо иные пути создания «клетки», а кромя как копировать вручную бинарники,so-шники и прочие conf файлы.

Директорий внутри chroot создавались по образу и подобию реального root - /.

На офф сайте разработчик советует если ничего не помогает скопировать все /lib и /usr/lib , но это же порно)))) Заранее спасибо.

 , , , ,

gudron
()

Virtualbox. Host - Win7. Guest - Freebsd. Проблема с Lan и Nat.

Форум — General

Доброго утра\дня\вечера\ночи.

Суть в следующем. Необходим Web. Dev сервачок. Раньше основной операционкой была убунта, там леко поднималось рабоче окружение. Сейчас как основная операционка - Windows, извращаться с различными джентельменскими наборами, неохота. Решил поднять виртуалку, где будет настроен полноценный веб сервер, ради общего развития решил попробовать на вкус что такое FreeBSD.

И так что имеем.

Дано:

  • Средство виртуализации - VirtualBox 4.2.2
  • Хост операционка - Windows 7.

Нужно:

  1. Локальная сеть между виртуальной машиной и хост машиной всегда должна быть.
  2. Доступ извне к виртуальной должна иметь только хост машина.
  3. Виртуальная машина должна ходить в интернеты через любой из доступных, хостмашине, вариантов подключения к интернету.

Решение:

Решением 1 вижу - создание виртуального сетевого адаптера хоста. И созданием на виртуальной машине - сетевого адаптера который будет через виртуальный сетевой адаптер.

Настройки виртуального сетевого адаптера хоста:

  • IPv4 адрес: 169.254.0.1 ;
  • IPv4 маска сети: 255.255.0.0 ;
  • DHCP: включен ;
    • Адрес сервера: 169.254.0.100 ;
    • Маска сети сервера: 255.255.0.0 ;
    • Границы адресов: 169.254.0.101 - 169.254.0.115 ;

Решением 2 и 3 вижу созданием еще одного сетевого адаптера на виртуальной машине тип подключения на котором - Nat

Проблема возникла на этапе настройки сетевых подключений в работающей виртуальной машине.

Если с первым сетевым адаптером(виртуальной сети) понятно:

#cat /etc/rc.conf

hostname=«bsd_web_dev»
ifconfig_em0=«DHCP» # либо inet 169.254.0.101 netmask 255.255.0.0
sshd_enable=«YES»

То как быть со вторым (Nat) сетевым адаптером ума не приложу. По различному экспериментировал, внешку всеравно не пингует.

Кому не сложно, прошу помочь. Заранее спасибо.

 , , ,

gudron
()

[Nginx]Debian + Nginx + php-fastcgi + Livestreet = 110: Connection timed out

Форум — General

Доброго всем времени суток. И так, уже вот как недели две безуспешно борюсь со следующей проблемой которая в логах nginx'а, отображена как:

2012/02/08 11:05:59 [error] 5911#0: *1495 upstream timed out (110: Connection timed out) while reading response header from upstream, client: 123.123.123.123, server: example.ru, request: «POST /topic/add/ HTTP/1.0», upstream: «fastcgi://127.0.0.1:9000», host: «example.ru», referrer: "http://example.ru/topic/add/"

Работает nginx в среде Debian GNU/Linux 6.0.3 (squeeze). С установленными из репов nginx,php,php-fastcgi.

В гугле масса советов как ее решить. только не один из них проблему на совсем не решил.

Привожу nginx.conf:

user www-data;
worker_processes  4;

error_log  /var/log/nginx/error.log;
pid        /var/run/nginx.pid;

events {
    worker_connections  2048;
    # multi_accept on;
    use epoll;
}

http {
    include       /etc/nginx/mime.types;

    access_log  /var/log/nginx/access.log;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;
    tcp_nodelay        on;

    gzip  on;
    gzip_disable «MSIE [1-6]\.(?!.*SV1)»;


    fastcgi_buffers 8 256k;
    fastcgi_buffer_size 128k;
    fastcgi_busy_buffers_size 256k;
    fastcgi_connect_timeout 90;
    fastcgi_read_timeout 210;

    include /etc/nginx/conf.d/*.conf;
    include /etc/nginx/sites-enabled/*;
}

Так же привожу /etc/default/php-fastcgi:

# Settings for php-cgi in external FASTCGI Mode
#

# Should php-fastcgi run automatically on startup? (default: no)
START=yes

# Which user runs PHP? (default: www-data)
EXEC_AS_USER=www-data

# Host and TCP port for FASTCGI-Listener (default: localhost:9000)
FCGI_HOST=localhost
FCGI_PORT=9000

# Environment variables, which are processed by PHP
PHP_FCGI_CHILDREN=5
PHP_FCGI_MAX_REQUESTS=100

Всячески экспериментировал с keepalive_timeout, fastcgi_connect_timeout, fastcgi_read_timeout и буферами. но проку ноль. Ошибка может не вылазить в течении недели ни разу. А иногда на дню по несколько раз.

Посоветуйте как дальше копать, чем тестить и в каком направлении. Заранее спасибо.

 

gudron
()

Debian - Samba. Кодировка (знаки ??) на Windows \ Ubuntu linux

Форум — Admin

Всем доброго времени суток. Довольно странная проблема, не обнаружилась пока не подключил самбу шару к ubuntu. И так, схема:

  • 1 комп с Debian 6.0.2 на борту (здесь настроен самба-сервер)
  • 2 комп с Windows на борту (подключена самба шара)
  • 3 комп с Ubuntu 10.04.3 на борту (подключена самба шара)

Конфиг самбы на 1 компьютере с Debian:

; Глобальные настройки сервера
[global]
; General server settings
; Имя компа, как будет видно в сетевом окружении
netbios name = gudronserv
server string =
; Рабочая группа клиентов
workgroup = WORKGROUP
announce version = 5.0
socket options = TCP_NODELAY IPTOS_LOWDELAY SO_KEEPALIVE SO_RCVBUF=8192 SO_SNDBUF=8192
security = user
null passwords = true
; Файл для альясов имен юзеров
username map = /etc/samba/smbusers
name resolve order = hosts wins bcast
wins support = yes

dos charset = UTF8
unix charset = UTF8
display charset = UTF8

character set = UTF8
client code page = 866

; Поддержка принтеров
printing = CUPS
printcap name = CUPS
; Логи
log file = /var/log/samba/log.%m
syslog = 0
syslog only = no
; Настройка привязки к интерфейсам, на каких слушать, если не указано слушает на все интерфейсах
; interfaces = lo, eth0
; bind interfaces only = true
;

[data]
path = /home/data/
browseable = yes
read only = no
guest ok = yes
create mask = 0777
directory mask = 0777

И так к проблеме, суть в том чо заходя на шару из под Windows имена файлов\папок содержащих русские символы отображаются нормально. Если же заходить на шару из под Ubuntu то заместо русских символов видим лишь символы - ???.

Если из под ubuntu создавать на шаре файлы\папки с кириллицей, то в ubuntu эти файлы\папки отображаются нормально, но появляется проблема в Windows, где кирилица заменяется на непонятные символы квадратиков и прочего... монтирую в fstab шару как:

//192.168.0.101/data /mnt/data cifs username=gudron,password=****** 0 0

гуглил достаточно долго, куча всего перепробовал, и результат тотже, знающие люди подскажите где проблема. Раньше десятки раз настраивал самбу, такого не появлялось.

Заранее спасибо.

gudron
()

Livestreet + nginx. Rewrite url. www to non www. 310 ошибка.

Форум — Web-development

Доброго всем времени суток. Необходима помошь в настройке реврайта для движка Livestreet. В принципе все уже настроено и прекрасно работает. Но в последнее время потребовалось сделать редирект с адреса http://www.mysite.ru -> mysite.ru. Необходимо из за того что появляется дублирующая авторизация(можно использовать разные логины на http://www.mysite.ru и mysite.ru)

В интернете уйма инфы как сделать такой реврайт. Да только по каким-то причинам,на моей конфиге не работает,а именно браузер после настройки реврайта вида

rewrite ^(.*)$ http://mysite.ru/ permanent;
сообщает о циклических переадресациях и выдает 310 ошибку.

Конфиг файла cat /etc/nginx/sites-available/mysite.ru

server {
        listen 80;
        server_name www.mysite.ru mysite.ru;
#       rewrite ^(.*)$ http://mysite.ru/ permanent;
        charset utf-8;
        access_log /home/mysite/logs/access_log;
        error_log /home/mysite/logs/error_log error;
location / {
        root /home/www/mysite.ru;
        index index.php;
        if ($request_filename !~ "\.(js|htc|ico|css|jpg|jpeg|gif|png|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|wav|bmp|rtf)$") {
                rewrite ^(.*) /index.php last;
        } 
}
location ~ \.php$ {
        fastcgi_pass 127.0.0.1:9000;
        fastcgi_hide_header X-Powered-By;
        fastcgi_index index.php;
        fastcgi_param SCRIPT_FILENAME /home/www/mysite.ru$fastcgi_script_name;
        include fastcgi_params;
}
location ~* ^.+\.(css|js|ico|swf)$ {
        root /home/www/mysite.ru;
        expires 7d;
        add_header Cache-Control private;
}
location ~* ^.+\.(jpg|jpeg|gif|png|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|wav|bmp|rtf)$ {
        root /home/www/mysite.ru;
        expires 7d;
        add_header Cache-Control public;
}
}

Прошу знающую публику помочь. Заранее спасибо.

gudron
()

RAID1 на Promise FastTrack TX2300 и два 2TB HDD

Форум — Linux-hardware

Всем доброго времени суток. Столкнулся со странной проблемой.

Есть PCI fakeRAID контроллер на котором я поднимаю RAID1. Так как контроллер скорее софтварный соответственно поднимать raid будем через dmraid. И так по порядку. Сперва при загрузке компа захожу в BIOS контроллера где выставляю RAID1 на два 2х Террабайтных диска. Дале ребут и загружаемся в ОС. как ни странно RAID подхватился сразу о чем любезно сообщает dmraid

root@gudronserv:/dev/mapper# dmraid -r
/dev/sdb: pdc, "pdc_hfeddjjb", mirror, ok, 3906898048 sectors, data@ 0
/dev/sda: pdc, "pdc_hfeddjjb", mirror, ok, 3906898048 sectors, data@ 0
dmraid -s
*** Active Set
name   : pdc_hfeddjjb
size   : 3906898048
stride : 128
type   : mirror
status : ok
subsets: 0
devs   : 2
spares : 0

В /dev/mapper/ появляется устройство

root@gudronserv:/dev/mapper# ls -l
итого 0
crw------- 1 root root 10, 59 Авг  8 20:38 control
lrwxrwxrwx 1 root root	  7 Авг  8 20:38 pdc_hfeddjjb -> ../dm-0

Я так понимаю далее необходимо его разметить. Берем fdisk fdisk /dev/mapper/pdc_hfeddjjb Вбиваю параметр: n - создаю primary раздел, который полность забирает весь объем рейда от первого до последнего цилиндра.

	   Device Boot	  Start		 End	  Blocks   Id  System
pdc_hfeddjjb1			   1	  243193  1953447741   83  Linux
после записываю изменения командой w.
The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 22: Недопустимый аргумент.
The kernel still uses the old table. The new table will be used at
the next reboot or after you run partprobe(8) or kpartx(8)
Syncing disks.

Как и советует система - перезагружаюсь(reboot)

Далее думаю нада отформатировать созданный раздел, и вот здесь и возникает проблема. в /dev/mapper появляется устройство

root@gudronserv:~# ls -l /dev/mapper/
итого 0
crw------- 1 root root 10, 59 Авг  8 20:50 control
lrwxrwxrwx 1 root root	  7 Авг  8 20:50 pdc_hfeddjjb -> ../dm-0
lrwxrwxrwx 1 root root	  7 Авг  8 20:50 pdc_hfeddjjb1 -> ../dm-2
Далее делаем форматирование mkfs.ext3 /dev/dm-2
root@gudronserv:~# mkfs.ext3 /dev/dm-2
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
122093568 inodes, 488361935 blocks
24418096 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=0
14904 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
		32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
		4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
		102400000, 214990848

Writing inode tables:	44/14904
И все...через SSH все останавливаеца на 44 inode tables, далее система стает недоступной по локальныой сети, не откликаеца на клавиатуру. на монитор в терминал вываливаеца куча непонятной инфы. После чего комп оживить только кнопкой reboot.

Кто нить сталкавался как правильно поднимать такие fakeraid массивы, поделитесь опытом, скажите что я делаю не так. Заранее спасибо.

gudron
()

RSS подписка на новые темы