linux user group brescia

immagine del castello

Archivio della mailing list

[LugBS] server alta disponibilita

Furio Settimi furio.settimi a gmail.com
Lun 20 Dic 2010 11:24:41 UTC
Il giorno 19 dicembre 2010 12:30, marco ghidinelli <marcogh a linux.it> ha
scritto:

>
> ma x HA intendi ridondanza x le performance o per la disponibilta' (es
> il server si schianta)? l'architettura a server virtuali sopperisce (in
> qualche modo) alla seconda.
>
>
non hai letto la prima mail, eh ?
e basta con sti server virtuali ( e' una polemica con gh, quella delle VM )

riassumo le mie condizioni:

il cliente sono io, un server e 60 macchine, molto probabilmente in aumento
nel futuro
servizi importanti attivi: mail, web, db, file server

la mia politica attuale di backup per il files utenti e' : dividere.
all'inizio tenevo tutto su server, connettendomi alle homes su server, ma se
si pianta qualcosa non funziona NIENTE ed e' tutto molto pesante
quindi, al momento, il pc utente ha i files in locale, con un rsync (
incrementale) al login ed al logout su server.
se cambia desktop, ricarica tutta la home sul pc nuovo.
sul server, tutte le notti, parte un'altro script che fa uno snapshot
giornaliero usando hard link.
( gli devo ancora fare un accesso web )
e un altro server di backup che tiene una copia delle homes.

per le mail, uguale, lascio le mail su server esterni per almeno 5/10 gg
dopo che le ho scaricate su server e le metto in imap in lan.
copia su server di backup
anche qui, sto sperimentando le mail sui desktop, ma in futuro montero' un
server mail completo dentro la rete.

per il backup web non c'e' particolare problema

per il db, ho fatto la cagata di usare gli oid, bello e veloce, ma e' una
cosa che togliero', per mettere tutto su fs, poiche' un rsync incrementale
"costa" meno di un dump.
anche qui, tendero' a sudddividere i db
sarebbe interessante sapere se posso fare una query tra database diversi, o
meglio se posso richiamare una tabella di un db esterno.
dall' ultima versione postgres (9)  supporta direttamente la replicazione
dei db, senza usare un programma esterno, devo ancora studiarla ma e'
interessante.

per i carichi di lavoro ed i costi, non ho fatto prove, e' tutto empirico,
dipende che ore sono e che stanno facendo, diciamo che con un normale core2,
del serverino di backup,
non si pianta quasi mai, ma che pero' ci sono dei progetti per aumentare il
carico del db.
ho notato comunque che i db, tra il vecchio server, un dual xeon, al
serverino, e' piu' veloce il serverino,
merito probabilmete dellla maggior giovinezza dello stesso, e sopratutto la
velocita di accesso al disco.

quindi l'idea e' questa:
prendo due macchine piu' piccole , anziche una piu' grossa
il server vecchio lo pulisco un po', gli carico qualche disco e lo metto in
backup ( in automatico, ovvio )
monto drdb sui server nuovi, divido i servizi sulle due macchine mettendo
mail e files su una e web e db sull'altra.
quel che voglio ottenere e' la ridondanza dei dati, in modo da avere si' dei
backup, ma di non doverli usare mai,
oltre ad avere piu' probabilita che il servizo non cada.
anche interessante sarebbe un programma che mi bilancia il carico tra le due
macchine con due servizi web identici attivi.,
ma per fare questo bisognerebbe che la replicazione del db fosse nei due
sensi, cosa che non so ancora

insomma, e' tutto da pensare

ciao
furio
-------------- parte successiva --------------
Un allegato HTML รจ stato rimosso...
URL: <http://lugbs.linux.it/pipermail/lug/attachments/20101220/4c2ec84d/attachment.html>


Maggiori informazioni sulla lista Lug