LINUX.ORG.RU

Сообщения FATruden

 

Мигающий курсор на черном фоне и мистика, много мистики

Фантазия иссякла, прошу помощи!

Установил Fedora 21 на ноутбук. Ноутбук Acer Aspire 5542. Не первой свежести, но с железом все хорошо. Не бедов, не битых банок памяти не каких проблем не было и пока, что нет.

В ноуте BIOS. UEFI нет.

Fedora ставится отлично. После установки рестарт, появляется стандартное окно grub2, выбираю ядро и на этом все. Экран черный а левом углу моргает курсор.

Возился целый день. Выбирал автоматическую разметку. Размечал сам и в MBR и в GPT. Следовал всем рекомендациям, типа /boot на первом разделе должен быть, если GPT то нужен маленький раздел по BIOS boot и т.д. В общем все без толку. Курсор моргает себе и все.

Но, тут случайным образом обнаруживаю следующее. Если загрузиться каким небудь LiveCD\USB, например SystemRescueCD и нечего не делая, просто перезагрузиться, то Fedora загружается без проблем.

Проверял 100 раз!

Если просто запускаешь ноут или ребутишься из загруженной Fedora - курсор на черном экране.

Если загрузиться с помощью LiveCD и позвать reboot то Fedora загружается.

Что ж это такое то, братцы?

 

FATruden
()

Производительность DM-Multipath. Вопрос для тех кто реально использует.

Используется iSCSI-Target на базе StarWind с двумя гигабитными сетевыми контроллерами. На стороне инициатора CentOS 6.3, так же с двумя контроллерами по гигабиту. На CentOS настроен DM-Multipath с политикой multibus(Тоесть задействовать все маршруты). И вроде бы все замечательно. Но, на практике, производительность(то есть скорости чтения\записи, iops и латентность) в режиме multipath хуже и значительно хуже чем при использовании одно маршрута в стандартной схеме.

Тестил с помощью утилиты fio и плюс простые тесты на скорость чтения записи реальных данных. И вот не могу понять почему так. Подозреваю, что у меня сильно медленная дисковая подсистема которая под Таргетом у меня. Предпологаю, что если бы была быстрая СХД то мультипат себя бы показал. По этому собственно и вопрос. У кого в реальных условиях используется. Какова производительность?

FATruden
()

Multipathing в Linux работает не так как ожидается

Доброго времени суток!

Есть некое не понимание работы device-mapper-multipath в Linux, конкретно в CentOS 6.3.

У меня есть iSCSI-Target к которому ведут два маршрута. Target поднят на StarWind iSCSI SAN. На стороне инициатора(CentOS) настраиваю multipating.

/etc/multipath.conf

defaults {
        udev_dir                /dev
        polling_interval        10
        path_selector           "round-robin 0"
        path_grouping_policy    failover
        getuid_callout          "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
        prio                    alua
        path_checker            readsector0
        rr_min_io               100
        max_fds                 8192
        rr_weight               priorities
        failback                immediate
        no_path_retry           fail
        user_friendly_names     yes
}

Это собственно все настройки.

Пункт конфига path_grouping_policy failover - предпологает режим активный/пасивный и в случае падения активного маршрута, переключение на пасивный. У меня же, в случае отключения активного(выдергиванием кабеля) переключения не произходит а сервер виснет.

Изменяю path_grouping_policy multibus - и ожидаю увидеть работу в режиме активный/активный но у меня по прежнему продолжает работать только один маршрут.

Кто имел уже опыт с этой балолайкой, подскажите как оно должно быть на самом деле на практике?

FATruden
()

Wathdog в гостевых системах под KVM.

К сожалению, я не распологаю особым опытом использования подобных устройств. Но вот решил попробовать. Добавил одной из ВМ(Win2003R2) Watchdog i6300esb и выбрал действие «Жесткая перезагрузка».

После закрузки ОС нашла новое устройство(intel 6300ESB Watchdog Timer - 25AB) и без проблемм поставила на него подписанный intel драйвер. Ну и собственно начал тестить. Нагружал ВМ до полного зависания, но ожидаемого жесткого ресета так и не обнаружел!

Поделитесь опытом, кто осуществлял подобное. Как оно должно быть?

FATruden
()

Система резервного копирования ВМ. CentOS+KVM+Libvirt

Продумываю систему резервного копирования ВМ. Основные требования - 1.Бекап средствами хоста 2.Не каких снапщетов средствами Libvirt, т.к это жутко тормознуто. 3.Не останавливать ВМ. 4.Фантастика конечно, но может быть инкрементальный бекап виртуалок..

Что можете посоветовать? Насколько я знаю аналога или хотябы чегото близкого с Veeam Beckup для KVM не существует даже в зачатке. Как вы бекапите свои машинки?

Пока, что вижу только один вариант. Виртуалки на LVM и бекап посредствам LVM снапшетов по схеме - снапшет, монтируем снапшет, копируем на другой сервер, удаляем снапшет.

Но как быть с raw qcow2? Нельзя ли как нибудь приспособить ту же бакулу для бекапа виртуалок или может есть уже что то для этого?

FATruden
()

OpenFiler2.3. Авторизация в AD 2008 R2

Подскажите пожалуйста кто делал подобное.

Хочу настроить авторизацию OpenFiler2.3 в AD под упровлением 2008 R2. Домен функционирует в режиме 2003.

Необходимо что то особенное настроить в 2008 или может чтото допелить в OpenFiler?

С уважением Александр.

FATruden
()

ОпенСорсный ESXi — KVMi

Все уже знают про очень перспективный ESXi от VMware. Минемальный размер(~30мб), может загружаться с флешки, поднимает сеть, конектится к общему хранилищу, запускает вирталки и управляется удаленно! В общем будущее гипервизоров) по крайней мере на мой взгляд.

Я так подумал...ведь можно же собрать подобное из опенсорсных компонентов!

Берем пересобранное, урезанное ядро со всеми необходимыми компонентами(grub,initrd), добовляем KVM + QEMU + Libvirt + SSH + что там по зависимостям и получаем, пусть не такой же маленький по объему ну зато не менне функциональный гипервизор который тоже можно научить грузиться с флешки и подывать виртуалки с сетевого хранилища! Упровлять можно через virt-manager + ssh.

Очень интересно Ваше мнение на этот счет? Реально ли? Если реально то какие инструмены могут в этом помочь?

Сейчас хочу попробывать что то подобное(liveCD) собрать с помощью SUSE Studio.

FATruden
()

iscsi-таргеты и libvirt. CentOS+KVM+Libvirt

Добрался я наконец до живой миграции ВМ...

В качестве общего хранилища выбрал iscsi-таргеты. Для предоставления iscsi-таргетов выбрал хороше мне знакомый OpenFiler 2.3. Установил на отдельной машине настроил, здесь все нормально.

Используя iscsiadm на сервере виртуализации isci-таргеты находятся, монтируются, форматируются, и данные пишутся.

Но я не могу понять каким боком эти самые таргеты подключаются непосредственно к libvirt?

Использую virt-manager. Создаю новое хранилище, задаю ему имя, указываю тип iscsi-target, указываю хост и уникальное имя iscsi-таргета в стандартном формате iqn.2003-12.net.ruden:disk0

После этого создается хранилище, с одним единственным имеджем равным по объему моему iscsi-таргету при этом формат имеджа почемуто DOS? Как юзать такой имедж я не понимаю? Или я скорей всего что то не так делаю?

Думал может уже смонтировать этот таргет на сервере виртуализации отформатировать, примонтировать к фс, и создать новое хранилище в virt-managere как обычный каталог(только на этом примонтированном таргете)?

Вообщем в связи с отсутствием документации прошу помощи в реализации общего iscsi хранилища для libvirt хостов.

FATruden
()

Перенос ВМ из виртуального окружения Vmware Server на KVM.

Необходимо перенести несколько серверов из виртуального окружения Vmware Server 2 в KVM окружение на другой хост.

Какие инструменты мне могут в том помочь? Виртуальные машины, на время переноса можно выключить. Образы дисков VM в формате vmdk порезанные по 2 гб.

Необходимо также перенести VM на диски в формате RAW!

Кто делал подобное, поделитесь опытом. Пока думаю склонировать диск clonzill-ой или акронисом и залить на новой VM под KVM. Как Вы думаете, будет работать?

На целевом хосте CentOS 5.5 x86-64 + KVM + Libvirt.

С уважением Александр.

FATruden
()

collectd и RRDtools - принцип работы?

Нужна статистика по производительности нескольких серверов виртуализации на базе CentOS 5.5 + KVM + Libvirt. Основное требование, это графики за различные промежутки времени.

1.Поставил collectd. Видел результат его работы в графиках, то, что надо!

2.Подключил нужные плагины: cpu, mem, disk, net, libvirt, rrdtool

3.Все пишется в соответствующие файлы *.rrd в каталог /var/lib/collectd/HOSTNAME/*

Теперь RRDtool...

Не могу понять как они(collectd, rrdtool) должны взаимодействовать?

Во всех мануалах, rrdtool как будто бы работает абсолютно один без всяких collectd. Сам создает базу, сам в нее пишет, и,сам рисует графики.

При этом collectd, нужен однозначно так как хороше умеет мониторить libvirt!

В общем есть файлы созданные collectd(*.rrd) и необходимо нарисовать графики. Но как это сделать я не понемаю?

FATruden
()

Cистема мониторинга виртуальных машин. CentOS5+KVM+Libvirt

Ищу софт для мониторинга производительности виртуальных машин под управлением KVM.

Пока что использую virt-top. Неплохая утилита. Но хотелось бы например посмотреть графики за неделю или месяц. А так же хочется централизованности. Собирать статистику с нескольких серверов виртуализации.

Может кто встречал подобное?

FATruden
()

Виртуальные машины на LVM-томах. CentOS+KVM+libvirt

Очень много хорошего сказанно в сторону использования LVM-томов в качестве дисков ВМ. Одна из основных возможностей это создание снапшотов, что позволяет делать бакип данных не останавливая ВМ.

Вот и я решил попробовать но возникло несколько практических вопросов:

1.Имеется VM с установленным WindowsServer2003Standart.

2.Создаю я LVM-том скажем /dev/data_storage/vm-001. Не форматирую его.

3.Подключаю этот LVM-том к VM как ide, scsi или virtio-диск. Запускаю VM.

4.VM находит новый диск естественно создает на нем таблицу разделов. И наченает писать на него данные...

После этого в хост-системе я создаю снапшот этого LVM-тома и естественно хочу примонтировать этот снапшот для копирования с него данных. Но так как VM создала на нем свою таблицу разделов, понятнуюю только ей я получаю ошибку - «не может быть считан суперблок». Оно и понятно, на LVM-томе нет файловой системы.

Получается LVM-тома, а именно снапшоты не помогут в бекапе данных если гость windows*?

С linux* гостями немного подругому: Проделываю теже 3-и действия в хосте. А найденный новый диск в госте полностью форматирую например в ext3 не создовая разделов. Пишу в него данные... Делаю снапшот этого LVM-тома в хосте, монтирую снапшот, копирую нужные данные.

В этом вопросе проблемм нет. Но если хочешь поставить систему(linux) на такой диск. Будут созданны разделы и появляется таже проблемма что с windows гостями?

С уважением Александр.

FATruden
()

RSS подписка на новые темы