SetupClusterHA » Cronologia » Versione 51
« Precedente |
Versione 51/53
(diff)
| Successivo »
Amministratore Truelite, 04-10-2007 18:59
Configurazione di un Cluster HA¶
In questo caso per Cluster HA si intende un sistema composto da due macchine (dette nodi) in configurazione attivo/passivo, su cui viene gestita automaticamente la sincronizzazione dei dati attraverso DRBD, e lo switch automatico dei servizi in caso di crollo del nodo attivo con l'uso di heartbeat.
Predisposizione delle due macchine del Cluster¶
Per un buon funzionamento del cluster è quantomeno opportuno poter disporre di una interfaccia di rete in più, dedicata alla comunicazione diretta fra i due nodi; questo è importante anche per evitare errori nella rilevazione di un crollo (che normalmente viene fatta tramite una connessione di rete, anche se è possibile usare un collegamento seriale) qualora ad andare giù fosse lo switch e non un singolo nodo. Disponendo dell'hardware necessario (interruttori controllabili da remoto) si può installare stonith per assicurarsi dello spegnimento dell'altro nodo in caso di switch.
Per poter utilizzare la sincronizzazione dei dati con DRBD occorre predisporre i dischi delle due macchine riservando lo spazio opportuno. Per questo occorrono due partizioni su ciascuna macchina (in realtà si potrebbe fare tutto con una sola, ma questo comporta che gli ultimi 128Mb della partizione devono essere lasciati liberi ed il filesystem presente su di essa opportunamento ridimensionato). La prima partizione sarà quella su cui si mantengono i dati, la seconda deve essere di almeno 128Mb e serve per i metadati usati da DRBD, la partizione dei dati deve essere approssimativamente della stessa dimensione su entrambe le macchine. h2. Configurazione di DRBD <pre> <pre> <pre> <pre> resource r0 { protocol C; incon-degr-cmd "echo '!DRBD! pri on incon-degr' | wall ; sleep 60 ; halt -f"; startup { degr-wfc-timeout 120; # 2 minutes. } disk { on-io-error detach; } net { } syncer { rate 10M; group 1; al-extents 257; } on servint1 { device /dev/drbd0; disk /dev/md3; address 192.168.234.1:7788; meta-disk /dev/hda7r0; } on servint2 { device /dev/drbd0; disk /dev/hda5; address 192.168.234.2:7788; meta-disk /dev/hda7r0; } } </pre> <pre> <pre> <pre> <pre> <pre> modprobe drbd drbdadm up all </pre> <pre> <pre> servint1:~# cat /proc/drbd version: 0.7.10 (api:77/proto:74) SVN Revision: 1743 build by phil@mescal, 2005-01-31 12:22:07 0: cs:Connected st:Secondary/Secondary ld:Inconsistent ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 1: cs:Unconfigured </pre> che ci dice che le due macchine si vedono fra loro, ma anche che lo stato di DRBD è inconsistente ed che i dischi sono entrambi classificati come secondari. A questo punto si potrà definire quale dei due dischi è il primario (quello che deve essere copiato sul secondario), ed iniziare la sincronizzazione dei dispositivi con il comando: <pre> drbdadm -- --do-what-I-say primary all </pre> <pre> <pre> servint1:~# cat /proc/drbd version: 0.7.10 (api:77/proto:74) SVN Revision: 1743 build by phil@mescal, 2005-01-31 12:22:07 0: cs:SyncSource st:Primary/Secondary ld:Consistent ns:360356 nr:0 dw:0 dr:361240 al:0 bm:21 lo:135 pe:36 ua:221 ap:0 [>...................] sync'ed: 0.6% (69265/69617)M finish: 1:44:47 speed: 11,252 (10,288) K/sec 1: cs:Unconfigured </pre> <pre> A questo punto si tratterà solo di attendere il tempo necessario perché venga eseguita la sincronizzazione via rete (la prima volta può essere piuttosto lungo), ed una volta che questa sarà completata avremo sul nodo primario qualcosa del tipo: <pre> servint1:~# cat /proc/drbd version: 0.7.10 (api:77/proto:74) SVN Revision: 1743 build by phil@mescal, 2005-01-31 12:22:07 0: cs:Connected st:Primary/Secondary ld:Consistent ns:71288320 nr:0 dw:0 dr:71288320 al:0 bm:4352 lo:0 pe:0 ua:0 ap:0 1: cs:Unconfigured </pre> mentre sul nodo secondario avremo qualcosa del tipo: <pre> servint2:~# cat /proc/drbd version: 0.7.10 (api:77/proto:74) SVN Revision: 1743 build by phil@mescal, 2005-01-31 12:22:07 0: cs:Connected st:Secondary/Primary ld:Consistent ns:3028 nr:0 dw:0 dr:3028 al:0 bm:15 lo:0 pe:0 ua:0 ap:0 1: cs:Unconfigured </pre> e come si può notare i ruoli dei dispositivi sono invertiti. <pre> <pre> h2. Configurazione di heartbeat <pre> <pre> cd /usr/share/doc/heartbeat zcat ha.cf.gz > /etc/ha.d/ha.cf zcat haresources.gz > /etc/ha.d/haresources </pre> <pre> <pre> logfacility local0 keepalive 2 deadtime 30 bcast eth1 auto_failback on node servint1 servint2 </pre> <pre> <pre> servint1 IPaddr::10.10.0.2/16/eth0 drbddisk::r0 Filesystem::/dev/drbd0::/shared::ext3 </pre> <pre> <pre> cp authkeys /etc/ha.d/ chmod 600 /etc/ha.d/authkeys </pre> e qui andrà specificata la modalità di autenticazione ed inserita la password, con qualcosa del tipo: <pre> auth 2 2 sha1 unabellapasswordbellalungaemoltocomplicata </pre> se si connettono le macchina con un cavo cross allora tutto questo è sostanzialmente inutile, e si potrà usare molto più semplicemente qualcosa del tipo: <pre> auth 1 1 crc </pre> A questo punto si potrà avviare _heartbeat_ direttamente con lo script di avvio lanciando il comando: <pre> /etc/init.d/heartbeat start </pre> <pre> h2. La configurazione dei servizi <pre> <pre> for i in samba slapd nfs-kernel-server nfs-common dhcp3-server cupsys bind9 apache2 do update-rc.d -f $i remove done </pre> (si tenga conto che nell'upgrade di un pacchetto l'attivazione dei servizi viene in genere ripristinata su tutti i runlevel, si verifichi sempre che le cose siano a posto). <pre> <pre> mkdir -p /shared/var/lib for i in dhcp3 ldap ldap-account-manager nfs samba slapd do mv /var/lib/$i /shared/var/lib ln -s /shared/var/lib/$i /var/lib/$i done </pre> <pre> <pre> mkdir -p /shared/var/cache for i in bind cups samba do mv /var/cache/$i /shared/var/cache ln -s /shared/var/cache/$i /var/cache/$i done mkdir -p /shared/var/spool for i in cups samba slurpd do mv /var/spool/$i /shared/var/spool/ ln -s /shared/var/spool/$i /var/spool/$i done </pre> <pre> <pre> <pre> mkdir -p /shared/var/www mv /var/www /shared/var ln -s /shared/var/www /var/www </pre> <pre> Si tenga conto poi che essendo i servizi attivi sul cluster, essi verranno acceduti con l'indirizzo generico di quest'ultimo, per cui occorrerà configurarli in maniera identica su entrambi i nodi, e fare in modo che, dove richiesto, per il nome a dominio compaia sempre quello del cluster e non del singolo nodo e lo stesso per l'indirizzo IP. <pre> <pre> postrotate [ -f /var/run/cups/cupsd.pid ] || invoke-rc.d --quiet cupsys restart > /dev/null && sleep 10 endscript </pre> <pre> Per la configurazione di LDAP si rammenti di usare gli stessi certificati (e CA) su entrambe le macchine, si abbia anche cura di creare i certificati in modo che il _commonName_ in essi inserito corrisponda al nome a dominio assegnato all'indirizzo pubblico del cluster, altrimenti non si riuscirà ad accedervi con SSL. Sarà comunque utile inserire nei _subjectAltName_ anche i valori degli indirizzi IP del cluster e dei singoli nodi. <pre> <pre> INTERFACES="eth0" </pre> <pre> <pre> server-identifier 10.10.0.2; server-name servint; </pre> <pre> <pre> netbios name = SERVINT interfaces = 10.10.0.2 bind interfaces only = yes </pre> <pre> <pre> net getlocalsid </pre> e poi impostare il valore ottenuto sul nodo secondario con qualcosa del tipo: <pre> net setlocalsid S-1-5-21-3442639467-1470014585-3232117252 </pre> <pre> <pre> <pre> servint1 IPaddr::10.10.0.2/16/eth0 drbddisk::r0 Filesystem::/dev/drbd0::/shared::ext3 slapd samba bind9 dhcp3-server cupsys apache2 </pre>
Aggiornato da Amministratore Truelite circa 17 anni fa · 51 revisions