Progetto

Generale

Profilo

SetupClusterHA » Cronologia » Versione 5

Versione 4 (Amministratore Truelite, 22-06-2006 14:50) → Versione 5/53 (Amministratore Truelite, 22-06-2006 14:59)

[[TracNav(TOC)]] 
 = Configurazione di un Cluster HA = 

 In questo caso per ''Cluster HA'' si intende un sistema composta da due macchine in configurazione attivo/passivo, su cui viene gestita automaticamente la sincronizzazione dei dati attraverso DRDB, e swith automatico in caso di crollo del server attivo con l'uso di ''heartbeat''. 

 LAVORI IN CORSO!!! 

 == Predisposizione delle due macchine del Cluster Configurazione di DRBD == 

 Per un buon funzionamento Il primo passo consiste nell'installazione dei pacchetti necessari, questi nel caso di Debian Sarge sono due, il modulo del cluster è quantomeno opportuno poter disporre di una interfaccia di rete dedicata alla comunicazione diretta fra le due macchine; questo è importante anche per evitare errori nella rilevazione di un crollo (che viene fatta tramite una connessione di rete) qualora ad andare giù fosse lo switch e non la macchina.  

 Negli esempi seguenti si supporrà allora kernel che ciascuna macchina abbia almeno due interfacce di rete; gestisce la prima {{{eth0}}}, connessa alla rete locale, la seconda, {{{eth1}}} connessa direttamente all'altra macchina con un cavo incrociato. Sulla prima interfaccia dovremo configurare l'indirizzo pubblico replicazione dei dati, {{{drbd0.7-module-source}}} e i programmi di ciascuna macchina (nel nostro gestione dello stesso {{{drbd0.7-utils}}}. Questi possono essere installati a mano, nel qual caso {{{10.10.0.98}}} e {{{10.10.0.99}}}) inteso come indirizzo diretto del singolo nodo del cluster, si dovrà anche provvedere a questo compilare ed installare il modulo {{{drbd}}}, altrimenti si aggiungerà l'indirizzo del ''cluster'' in quanto tale (tenuto dalla macchina può utilizzare il programma {{{module-assistant}}} che fa da nodo primario) che nel nostro caso sarà {{{10.10.0.2}}} 

 si incaricherà anche di scaricare tutti i pacchetti necessari, compilare il modulo per il kernel corrrente e installarlo.  

 Per poter utilizzare DRDB occorre predisporre i dischi delle due macchine riservando lo spazio opportuno. Per questo occorre definire almeno due partizioni (in realtà si otrebbe fare tutto con una sola, ma questo comporta che gli ultimi 128Mb della partizioni devono essere lasciati liberi ed il filesystem presente ristretto) su ciascuna macchina. La prima partizione sarà quella grande su cui si mtengono i dati, la seconda deve essere di almeno 128Mb e server per i metadati usati da DRBD, la partizione dei dati deve essere approssimativamente della stessa dimensione su entrambe le macchine. 

 == Configurazione di DRBD == 

 Il primo passo consiste nell'installazione dei pacchetti necessari, questi nel caso di Debian Sarge sono due, il modulo del kernel che gestisce la replicazione dei dati, {{{drbd0.7-module-source}}} e i programmi di gestione dello stesso {{{drbd0.7-utils}}}. Questi possono essere installati a mano, nel qual caso si dovrà anche provvedere a compilare ed installare il modulo {{{drbd}}}, altrimenti si può utilizzare il programma {{{module-assistant}}} che si incaricherà anche di scaricare tutti i pacchetti necessari, compilare il modulo per il kernel corrrente e installarlo.  

 Prima di attivare DRBD occorre configurarlo, il file è {{{/etc/drbd.conf}}}, ed il contenuto dovrebbe essere qualcosa del tipo: 
 {{{ 
 resource r0 { 
   protocol C; 
   incon-degr-cmd "echo '!DRBD! pri on incon-degr' | wall ; sleep 60 ; halt -f"; 
   startup { 
   } 
   disk { 
     on-io-error     detach; 
   } 
   net { 
   } 
   syncer { 
     rate 10M; 
     group 1; 
     al-extents 257; 
   } 
   on servint1 { 
     device       /dev/drbd0; 
     disk         /dev/md3; 
     address      192.168.234.1:7788; 
     meta-disk    /dev/hda7[0]; 
   } 
   on servint2 { 
     device      /dev/drbd0; 
     disk        /dev/hda5; 
     address     192.168.234.2:7788; 
     meta-disk /dev/hda7[0]; 
   } 
 } 
 }}} 

 Una volta completata la configurazione di {{{/etc/drbd.conf}}} si abbia cura di copiarlo sulla seconda macchina, dopo di che si potrà caricare il modulo {{{drbd}}} su entrambe le macchine ed attivare il servizio con il comando: 
 {{{ 
 drdbadm up all 
 }}} 
 e se tutto è a posto si avrà come contenuto dell'interfaccia di controllo di DRBD qualcosa del tipo: 
 {{{ 
 servint1:~# cat /proc/drbd 
 version: 0.7.10 (api:77/proto:74) 
 SVN Revision: 1743 build by phil@mescal, 2005-01-31 12:22:07 
  0: cs:Connected st:Secondary/Secondary ld:Inconsistent 
     ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 
  1: cs:Unconfigured 
 }}} 
 che ci dice che le due macchine si vedono fra loro, ma lo stato è inconsistente ed i dischi sono entrambi classificati come secondari. A questo punto si potrà definire quale dei due è il primario, e iniziare la sincronizzazione con il comando 
 {{{ 
  drbdadm -- --do-what-I-say primary all 
 }}} 
 e adesso avremo che: 
 {{{ 
 servint1:~# cat /proc/drbd 
 version: 0.7.10 (api:77/proto:74) 
 SVN Revision: 1743 build by phil@mescal, 2005-01-31 12:22:07 
  0: cs:SyncSource st:Primary/Secondary ld:Consistent 
     ns:360356 nr:0 dw:0 dr:361240 al:0 bm:21 lo:135 pe:36 ua:221 ap:0 
         [>...................] sync'ed:    0.6% (69265/69617)M 
         finish: 1:44:47 speed: 11,252 (10,288) K/sec 
  1: cs:Unconfigured 
 }}} 
 a questo punto si tratterà solo di attendere il tempo necessario perché venga eseguta la sincornizzazione via rete, ed una volta che questa sarà completata avremo: 
 {{{ 
 servint1:~# cat /proc/drbd 
 version: 0.7.10 (api:77/proto:74) 
 SVN Revision: 1743 build by phil@mescal, 2005-01-31 12:22:07 
  0: cs:Connected st:Primary/Secondary ld:Consistent 
     ns:71288320 nr:0 dw:0 dr:71288320 al:0 bm:4352 lo:0 pe:0 ua:0 ap:0 
  1: cs:Unconfigured 
 }}} 

 == Configurazione di heartbeat == 

 Una volta completata la configurazione di