LINUX.ORG.RU

Сообщения vanchez

 

/etc/hosts

Всем доброго здоровья, подскажите можно-ли реализовать такую фичу У меня есть winhost и на нем username. Чтобы ходить на него по ssh приходится добавлять username@адресwinhost, пароли я убрал через authorized_keys.

так вот как бы мне сделать суперхост в котором был адрес winhost и имя username. и я бы такой довольный бы писал ssh суперхост и попадал на этот убогий winhost?

Всем добра и светлых мыслей!

 ,

vanchez
()

Ansible+Cygwin и хост win10

Здравствуйте все, решил собрать колхоза на сабже. SSH работает отвсюду. Но ансибл нехочет общаться с вин хостом(((( SSH на вин машину (c) Корпорация Майкрософт (Microsoft Corporation), 2018. Все права защищены.

specdorproject\i.bykov@SDP-BYKOV C:\Users\i.bykov>

Cygwin@DESKTOP-FDLF5IF /etc/ansible $ ssh i.bykov@192.168.35.226 i.bykov@192.168.35.226's password:

и все гут, обратно тоже гут коннект.

А вот ансибл капризничает

Cygwin@DESKTOP-FDLF5IF /etc/ansible $ ansible -m ping 192.168.35.226 [WARNING]: Could not match supplied host pattern, ignoring: 192.168.35.226

[WARNING]: No hosts matched, nothing to do

/etc/hosts тоже гут TEST ansible_ssh_host=192.168.35.226 ansible_ssh_user=i.bykov

что не так какие мысли?

 , ,

vanchez
()

CentOS 6.4 создание загрузочного iso

Всем привет. Подскажите пожалуйста есть-ли утилита которая создаст мне установочный iso чтобы я мог устанавливать centos с него на любое железо, но с заранее сформированным списком пакетов и настроек? Т.е. как-бы для виндоуз были такие утилиты которые создавали загрузочный образ с заранее подкачаными драйверами утилитами с указание пароля администратора, что-бы все это не вводить в процессе установки. Большое спасибо.

 ,

vanchez
()

CentOS 6 live installation

Всем доброго дня. Подскажите пожалуйста есть ли такие утилиты для установки unix/linux систем, чтобы я мог заранее в неё положить нужные мне пакеты и библиотеки? История такова, что есть настроенный сервер на CentOS 6.4, на нем уже много чего конфигурировалось, но стабильно работает. Суть в том чтобы раскатать эту-же о.с. на другом железе и чтобы все настройки, пакеты и библиотеки были такими-же один в один. Фактически клонировать на другое железо, но с преинсталляцией, чтобы корректно настроились адаптеры и прочие компоненты оборудования?

 , ,

vanchez
()

Ubuntu 14.04 StartX server без монитора

Есть задача чтбы сервера под данной о.с. работали в серверной и иксы стартовали без монитора, это нужно для задействования gpu процессора на intel core i7. Добавляю /etc/X11?xorg.conf, пишу туда

Section «Device»
Identifier «Configured Video Device»
Driver «vesa»
#Driver «intel»
EndSection

Section «Files»
ModulePath «/usr/lib/xorg/modules»
EndSection

Section «Monitor»
Identifier «Configured Monitor»
Modeline «1024x768» 94.39 1024 1088 1200 1376 768 769 772 807 +HSync +Vsync
Horizsync 30.00-70.00
Vertrefresh 50.00-160.00
DisplaySize 270 203 # 1024x768 96dpi
EndSection

Section «Screen»
Identifier «Default Screen»
Monitor «Configured Monitor»
SubSection «Display»
Depth 24
Modes «1024x768»
EndSubSection
Device «Configured Video Device»
EndSection

Автологин в иксы настроен для пользователя, ребутаю хост, захожу на него и тестирую работу исков и гпу

ing3@PRD-ING-3:~$ DISPLAY=:0 vainfo
libva info: VA-API version 0.35.0
libva info: va_getDriverName() returns 0
libva info: Trying to open /usr/lib/x86_64-linux-gnu/dri/i965_drv_video.so
libva info: Found init function __vaDriverInit_0_35
libva info: va_openDriver() returns 0
vainfo: VA-API version: 0.35 (libva 1.3.0)
vainfo: Driver version: Intel i965 driver - 1.3.0
vainfo: Supported profile and entrypoints
VAProfileMPEG2Simple : VAEntrypointVLD
VAProfileMPEG2Simple : VAEntrypointEncSlice
VAProfileMPEG2Main : VAEntrypointVLD
VAProfileMPEG2Main : VAEntrypointEncSlice
VAProfileH264ConstrainedBaseline: VAEntrypointVLD
VAProfileH264ConstrainedBaseline: VAEntrypointEncSlice
VAProfileH264Main : VAEntrypointVLD
VAProfileH264Main : VAEntrypointEncSlice
VAProfileH264High : VAEntrypointVLD
VAProfileH264High : VAEntrypointEncSlice
VAProfileVC1Simple : VAEntrypointVLD
VAProfileVC1Main : VAEntrypointVLD
VAProfileVC1Advanced : VAEntrypointVLD
VAProfileNone : VAEntrypointVideoProc
VAProfileJPEGBaseline : VAEntrypointVLD

Проходит пару минут и иксы отваливаются.

ing3@PRD-ING-3:~$ DISPLAY=:0 vainfo
No protocol specified
error: can't connect to X server!
error: can't open DRM connection!
error: failed to initialize display
Aborted (core dumped)

В чем загвоздка подскажите? может кто-то уже сталкивался с подобной проблемой?

 , ,

vanchez
()

Centos 6.6 корректировка времени на узлах кластера

Всем доброго времени суток. Возникла такая вот проблема, у меня есть две ноды кластера с одинаковыми настройками timezone

[root@LSI1 ~]# ls -l /etc/localtime lrwxrwxrwx. 1 root root 33 Aug 15 22:01 /etc/localtime -> /usr/share/zoneinfo/Europe/Moscow [root@LSI1 ~]# date Sat Aug 15 22:01:26 MSK 2015

[root@LSI2 ~]# ls -l /etc/localtime lrwxrwxrwx. 1 root root 33 Aug 14 01:35 /etc/localtime -> /usr/share/zoneinfo/Europe/Moscow [root@LSI2 ~]# date Sat Aug 15 14:03:05 MSK 2015

[root@LSI1 ~]# cat /etc/adjtime 0.000918 1439535579 0.000000 1439535579 UTC

[root@LSI2 ~]# cat /etc/adjtime 0.001160 1439505037 0.000000 1439505037 UTC

на второй ноде время нормальное, а на первой убегает аж на 8 часов, также на шлюзе есть ntp, но толку ноль. Подскажите в чем проблема, уже хардварные часы проверял Железки супермикро стоят.

P.s. ntpdate -u servername решило проблему!

 ,

vanchez
()

Виртуальный адрес в Linux

Доброго времени всем коллегам. Имеется два хоста которые видят один и тот же ресурс по sas. Хотелось бы иметь виртуальный ip адрес, который при падении одного из хостов по быстрому переключался на другой хост. ну а клиенты работали соответственно с ним. Читал о DRBD и Pacemaker, не могу понять кто из них лучше. Посоветуйте плиз что выбрать, и если можно инфы какй-либо по тестированию работы этого дела, может быть уже кто-то делал такое?

 ,

vanchez
()

Lsi Syncro + CentOS, недоступность GFS2

Всем здравствуйте. Имеется два сервера с lsi syncro контроллерами, на на обоих нодах имеется /dev/sda, который является виртуальным диском контроллеров(физически это sas хранилище с raid10). На нодах собран кластерный диск lvm2, который смонтирован в /gfs2. Ноды раздают /gfs2 по самбе(два ip) для двух девайсов, которые читают один и тот же файл синхронно, в случае отключения любой из нод недоступность ресурса составляет примерно 12секунд, после чего чтение файла продолжается. Грешу на журналы gfs2. Подскажите пожалуйста может быть есть еще какие-то кластерные open source ф.с. с более быстрым переключением?

 ,

vanchez
()

RSS подписка на новые темы