linux user group brescia

immagine del castello

Archivio della mailing list

[LugBS] RAID1: c'è (almeno) una cosa che non capisco

Luca Coianiz luca a coianiz.it
Gio 21 Apr 2016 20:39:25 UTC
Oops... ok, riscrivo la ricetta, giusto per non sbagliare:

1) mettere in "fail" sdb e toglierlo dal RAID: questo dovrebbe lasciarmi con sdb
= sdb1 + sdb2[sdb5] completamente disponibile (ed il RAID degraded)

2) (ri)copiare l'MBR sda -> sdb (è legacy, quindi non ci sono problemi di UUID
nè di partizioni grosse oltre i 2 TB)
 ma questo step mi pare opzionale, visto che sdb è già partizionato così

3) add di sdb1 ad md0 (che si fa il suo sync)

4) swapoff per smettere di usare sda5 come swap

5) creo md1 assemblando sda5 ed sdb5

6) swapon [-f] -v /dev/md1

...e dovrei avere la condizione che hai suggerito tu, con / su md0 (sda1+sdb1) e
swap su md1 (sda5+sdb5)... giusto?

Grazie ancora per la pazienza, Diego.

LC

> Il 21 aprile 2016 alle 8.26 Diego Guella <diego.guella a sircomtech.com> ha
> scritto:
> 
> 
> 
> Il 20/04/2016 16:24, Luca Coianiz ha scritto:
> > Capisco, in effetti le due-N partizioni di swap venivano gestite dal kernel
> > come
> > "parallele", non RAID1, aumentando di fatto il throughput del paging, ma non
> > fornendo la sicurezza RAID1. D'altro canto la maggior parte delle volte la
> > swap
> > area è "a perdere", anche se immagino che non sia sempre così.
> Beh si, ormai con tutta la RAM che abbiamo a disposizione oggi, swap non 
> serve quasi più a nulla.
> 
> 
> > Seguendo il tuo consiglio metterò (spero correttamente) entrambe le
> > partizioni
> > dentro il RAID1 (sda5+sdb5 in md0p5) in modo da premunirmi dal crash fisico
> > di
> > (spero solo) uno dei dischi.
> No :-D
> Stai ricadendo nello stesso errore di prima: md0p5 significa "la 
> partizione 5 di md0".
> Il tuo md0 non ha partizioni, perchè non è un RAID di un intero disco.
> Dovrai creare un nuovo array, md1, delle due partizioni di swap 
> (sda5+sdb5 in md1).
> 
> 
> Ciao,
> Diego
> 
> -- 
> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com



Maggiori informazioni sulla lista Lug