Графическая конфигурация на CentOS 4.5.

Графическая конфигурация,это аббревиатура распределенных реплицирующихся блочных устройств.Графическая конфигурация,это блочное устройство, которое предназначено для создания высокого наличия кластеров. Это делается с помощью зеркального отражения целых блоков устройства через выделенные сети. Вы могли видеть её в качестве сетевого RAID1.

Предварительная настройка требования:

Я использовал два узла со следующими параметрами системы:

  1. cnode1.rnd (hostname) с IP-адресом 172.16.4.80. Операционная система CentOS 4.5,
    два жестких диска SCSI 18 ГБ. В отношении раздела была использована следующая схема на cnode1.rnd:

/dev/sda1 / 13257MB ext3 первичный

/dev/sda2 4095MB замена первичного

/dev/sdb1 размонтировал 128MB ext3 первичного раздела (для графических мета-данных)

/dev/sdb2 размонтировал 4306MB ext3 первичного раздела (используется как графический диск)

  1. cnode2.rnd (hostname) с IP-адресом 172.16.4.81. Операционная система CentOS 4.5
    один IDE диск 10 ГБ. Следующий раздел схема была использована на cnode2.rnd:

/dev/hda1 / 4503MB ext3 первичный

/dev/hda2 769MB замена первичного

/dev/hda3 демонтирован, 128MB ext3 первичного раздела(для графических мета-данных)

/dev/hda4 без 4306MB ext3; первичный (используется как графический диск)

Размеры и имена разделов могут варьироваться в зависимости от ёмкости используемого жёсткого диска. Вы можете определить схему разделов, в соответствии с вашими требованиями.

Мой файл  /etc/hosts  на обоих узлах (cnode1.rnd & cnode2.rnd) выглядит так:

127.0.0.1 localhost localhost.localdomain
172.16.4.80 cnode1.rnd cnode2
172.16.4.81 cnode2.rnd cnode3

Графическая установка:

Установить программное обеспечение, графический модуль ядра по cnode1.rnd и cnode2.rnd:

insmod /lib/modules/2.6.9-55.0.9.EL/extra/drbd.ko

графические нагрузки модуля ядра с помощью команды insmod:

insmod /lib/modules/2.6.9-55.0.9.EL/extra/drbd.ko

Проверьте при помощи команды lsmod, что бы модуль загружался. Если вы видите,графическую конфигурацию,перейдите к конфигурации раздела примера.

Настройка графической конфигурации:

Графический конфигурационный файл находитсчя  — /etc/drbd.conf. Поэтому мы будем редактировать этот файл и внесём следующие изменения и скопируем его на другой узел (/etc/drbd.conf будут одинаковы на обоих узлах).

На cnode1.rnd нужно редактировать этот файл в любом редакторе. Я использую vi:

vi /etc/drbd.conf

resource r0
{ protocol C;
incon-degr-cmd "halt -f";
startup { degr-wfc-timeout 120;
# 2 minutes. }
disk
{ on-io-error detach; }
net { }
syncer
{ rate 3M; group 1; al-extents 257; }
on cnode1.rnd { device /dev/drbd0;
disk /dev/sdb2;
address 172.16.4.80:7789;
meta-disk /dev/sdb1[0]; }
on cnode2.rnd { device /dev/drbd0;
disk /dev/hda4;
address 172.16.4.81:7789;
meta-disk /dev/hda3[0];
}
}

Сохраните изменения и скопируйте их на другой узел (cnode2.rnd):

scp /etc/drbd.conf root@172.16.4.81:/etc/

Теперь давайте начнём с графической конфигурацией на обоих узлах, но перед этим мы хотим начать, графическую конфигурацию на следующей перезагрузке. Для этого мы будем использовать команду chkconfig на обоих узлах

chkconfig –level 235 drbd on

/etc/init.d/drbd start

Вы обнаружите, что  начался процесс синхронизации графической конфигруации. Вы можете увидеть его, выполнив команду:

/etc/init.d/drbd status

или

cat /proc/drbd

 Конфигурация drbd.conf — технические детали:

Протоколы:

  1. Операция записи будет завершена, как только данные будут записаны на диск, и посланы в сеть.
  2. Операция записи будет завершена, как только приходит подтверждение на приём.
  3. Операция записи будет завершена, как только приходит подтверждение на запись.

Имя хоста:

Должно точно соответствовать выходу

uname-n

Устройство:

Устройство узла в использовании: /dev/drbd0 — графическое блочное устройстве.

Адрес, Порт:

Inet адрес и порт для связи с локальной сетью, или для подключения к узлу партнера.

Мета-диск:

Диски для хранения мета-данных. Графическая конфигурация позволяет либо указать место его мета-данных на одной подложке устройства, где она ставит реальные данные (внутренние мета-данные) или на отдельном блоке устройства (внешние мета-данные). Я уже выделил 128 Мб для мета-данных на внешнем блочном устройстве мета-данных. Однако вы, возможно, озаботитесь таблицей,приведенной ниже, чтобы оценить размеры мета-данных

Размер блочного устройства

Графические мета-данные

1 ГБ

2 Мб

100 ГБ.

5 Мб

1 ТБ

33 Мб

4 ТБ

128 Мб

Incon-degr-cmd:

То, что должно быть сделано в случае кластера запускается в деградированном режиме, но он знает, что он имеет противоречивые данные (нижний уровень устройства, отчеты ошибок  io).

on-io-error detach:

Если отчеты  об ошибке устройства  io из-за узла и не поддерживает устройства хранения и продолжается в бездисковом режиме.

degr-wfc-timeout:

Ждать таймаут соединения, если этот узел был деградированным кластером. Это используется вместо wfc-timeout (дождаться  time out кластера).

Syncer:

Ограничение пропускной способности, используемой технологией процесса.

group:

Все устройства в одной группе не выполнили повторную синхронизацию параллельных данных. Ресинхронизация групп приводятся в порядке возрастания.

Al-extents.

Автоматически выполняет горячую зону обнаружения. С помощью этого параметра вы контролируете то, что может получить большая область . Каждая степень знака 4M в резервном хранилище (= низкому уровню устройства). В случае первичного узла >неожиданный кластер  в областях, охватываемых активным набором должен быть resynced для воссоединения с отказавшим узлом. Структуры данных хранятся в области мета-данных,поэтому при изменении активного набора  запись мета-данных является устройством. Большее число экстентов дает больше resync раз, но меньше обновлений в мета-данных.

Что делать и не делать:

Не пытайтесь запустить графическую конфигурацию во вторичном состоянии. После того как вы создали графическую конфигурацию никогда не обходите её, для доступа к основному устройству напрямую!

Графический тест :

Сделайте cnode1.rnd начальным и смонтируйте блочные устройства основного узла (cnode1.rnd) на /mnt/disk

drbdsetup /dev/drbd0 primary –do-what-I-say

mount /dev/drbd0 /mnt/disk

Copy some files and folders to it:

cp -r /root/documents /mnt/disk

Скопируйте некоторые файлы и папки в него:

cp-r /root/documents /mnt/disk

Теперь umount, графический блок устройств и сделайте основной узел “вторичным”

umount /mnt/disk/

drbdadm secondary all

Сделайте cnode2.rnd начальным и блоки устройств на /mnt/disk

drbdsetup /dev/drbd0 primary –do-what-I-say

mount /dev/drbd0 /mnt/disk

Вы обнаружите, что документы существуют на cnode2.rnd.

Оставить комментарий