[LugBS] DRBD
Michele Bonera
michele a bonera.biz
Mar 29 Dic 2015 19:30:34 UTC
Il 29/12/2015 11:01, Marco Manenti ha scritto:
> Ciao ragazzi,
>
> stavo pensando di aggiornare l'HW e avevo una mezza idea di introdurre
> il DRBD per avere un minimo di failover del server su cui gira (in VM)
> il gestionale che usiamo in studio.
> Ora so che qualcuno di voi lo usa da tempo (Morriz?) e volevo
> chiedervi se il sistema è utilizzabile con serenità (shooting head in
> primis) o se mi conviene fare backup giornalieri della VM e basta..
Per infrastrutture di due host, DRBD è imbattibile. Ovviamente il collo
di bottiglia diventa la rete, ma ora che le schede 10GbE sono a portata
di mano, si può benissimo mettere due di queste schede sui server,
crossare il cavo (o la fibra) e andare alla velocità massima permessa
dagli HD.
La nostra infrastruttura è basata su due server HP presi a nolo da
online.net ed è in piedi da quasi due anni. Ci girano sopra una
quindicina di vm ed in questi due anni DRBD è sempre andato bene, anche
quando una delle due macchine è stata spenta brutalmente per via di un
errore.
In ogni caso, il backup è IMPRESCINDIBILE. Noi facciamo snapshot tutte
le notti (ne conserviamo 3), un rsync dell'intero filesystem che poi
rendiamo incrementale grazie agli hard link, ed un dump di tutti i db
ospitati (che a volte non ne vogliono sapere di "salire", se presi da
uno snapshot nel momento giusto - o sbagliato che sia).
> Inoltre, performance: quanto "lag" rimane solitamente tra le due
> macchine? Tenete conto che non si tratta di file enormi che vengono
> modificati dal gestionale..
>
> consigli per la distro?
>
Proxmox (non ho ancora provato la 4.1, quindi tutto ciò che dico si
riferisce alla 3.4). È stabile, è piuttosto completo, lavora benissimo
con DRBD e ha un'interfaccia di gestione veramente piacevole.
La nostra infrastruttura:
------------------------------
Sui server, due partizioni (da 1TB) sono dedicate a DRBD. Il device
risultante, /dev/drbd0, è stato frazionato con LVM. Proxmox sa come
gestire tali volumi e come gestire le concorrenze (quando una macchina
virtuale è attiva su un nodo, il Logical Volume che ospita il disco
della VM viene automaticamente reso "NOT Available" da Proxmox
sull'altro nodo).
La cosa bella è che puoi fare live migration da un nodo all'altro,
utilizzando DRBD!
Per quanto riguarda il lag, DRBD prevede tre differenti modalità di
replica per i volumi: Protocol A, B, C. Leggi qui per more info:
http://drbd.linbit.com/users-guide-8.3/s-replication-protocols.html
Per ovvie ragioni in questo caso si utilizza il protocol C. La scrittura
di un dato è considerata completa quando i due nodi l'hanno
effettivamente scritta su disco. Entrambi. Questo assicura che le due
copie siano identiche. Il lag dipende MOLTISSIMO dall'ampiezza di banda
e dagli accessi al disco effettuati (ovviamente). Con la 10GbE, un
controller decente e degli hd enterprise, è irrisoria, ma se le vm non
scrivono troppo, può andare benissimo una Gbe (la lettura, al contrario
rispetto ad una soluzione ti tipo SAN, non occupa banda in quanto
avviene direttamente dal disco ed alla massima velocità possibile).
Se vuoi velocizzare l'installazione, puoi usare l'howto che feci con
Claudio Treccani (anche lui iscritto) durante un'installazione. È un po'
grezzo, ma dovrebbero esserci tutti i passi necessari per avere un
cluster funzionante. Tralascia pure la parte di HA, che è un po'
incasinata da installare e, in ambienti con soli due nodi, ha poco senso
e potrebbe risultare addirittura pericolosa per la stabilità del sistema.
http://www.mikipedia.it/index.php/Creazione_Cluster_Proxmox
Mi piacerebbe tantissimo darti una mano ad installare, ma... come sai
sono un poco lontano! :)
Bye
--
<http://www.zipoware.com>
Miguel Bonera - Administrador
------------------------------------------------------------------------
Zipoware S.A. de C.V.
Blvd Benito Juárez
Manzana 1, Lote 3, Local 9, Sector L
Edificio "Marina Park Plaza"
70987 - Bahias de Huatulco
Oaxaca - Mexico
<http://www.zipoware.com> www.zipoware.com <http://www.zipoware.com>
<mailto:info a zipoware.com> info a zipoware.com <mailto:info a zipoware.com>
<https://www.facebook.com/zipoware> facebook.com/zipoware
<https://www.facebook.com/zipoware>
<https://www.linkedin.com/company/10158440> likedin.com/zipoware
<https://www.linkedin.com/company/10158440>
Maggiori informazioni sulla lista
Lug
|