[LugBS] problemone con mdadm
Rampage Rmp
atomikramp a gmail.com
Ven 13 Apr 2012 13:01:00 UTC
CIao,
avevo già fatto quanto mi hai detto,
ho rimosso il disco e riaggiunto ma il problema persiste.
questa è la situazione:
Every 2,0s: cat /proc/mdstat
Fri Apr 13 14:59:36 2012
Personalities : [raid1]
md0 : active raid1 sdb1[2] sda1[0]
5245120 blocks [2/1] [U_]
[===================>.] recovery = 99.4% (5216128/5245120)
finish=0.0min speed=50809K/sec
arriva lì e poi...
Personalities : [raid1]
md0 : active raid1 sdb1[2] sda1[0]
5245120 blocks [2/1] [U_]
questo è quello che vedo dopo.
Francesco
On Fri, Apr 13, 2012 at 1:53 PM, ilcava <ilcava a gmail.com> wrote:
> Dallo stato sembra che il disco sia in spare, e non un disco attivo.
> Comunque il comportamento mi sembra strano, prova a rimuovere il disco e
> reinserirlo:
>
> mdadm --manage /dev/md0 --fail /dev/sdb1
> mdadm --manage /dev/md0 --remove /dev/sdb1
> mdadm --manage /dev/md0 --add /dev/sdb1
>
> attenzione ad usare i riferimenti dei dischi e del raid corretti,
> altrimenti rischi di rimuovere la partizione attiva.
> Se non funziona puoi mandare il commando:
> cat /proc/mdstat
>
> Ti allego anche un link che ho usato come guida quando ho sostituito il
> disco del raid:
> http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array
>
> Ciao
>
> Il giorno 12 aprile 2012 15:22, Rampage Rmp <atomikramp a gmail.com> ha
> scritto:
>
>> Ciao a tutti ragazzi,
>> ho bisogno di un vostro consiglio perchè ho un problema con mdadm che non
>> riesco a spiegarmi.
>>
>> ho appena sostituito un disco di un raid1 perchè pensavo che quello
>> precedente avesse problemi.
>>
>> Ho copiato la partition table dal disco principale, e ho rifatto l'add
>> del disco con mdadm --add /dev/md0 /dev/sdb1
>>
>> se faccio cat /proc/mdstat vedo il raid in rebuild, quando però arriva in
>> fondo, si ferma appena prima del completamento e poi non si completa
>>
>> mdadm -D /dev/md0 mi dice che il raid è in continuo rebuild
>>
>> se faccio un dmesg vedo errori del tipo:
>>
>> [10249.139127] RAID1 conf printout:
>> [10249.139129] --- wd:1 rd:2
>> [10249.139132] disk 0, wo:0, o:1, dev:sda1
>> [10249.139135] disk 1, wo:1, o:1, dev:sdb1
>>
>>
>> questo è l'output di mdadm -D
>>
>> /dev/md0:
>> Version : 00.90.03
>> Creation Time : Thu Apr 7 17:35:17 2011
>> Raid Level : raid1
>> Array Size : 5245120 (5.00 GiB 5.37 GB)
>> Used Dev Size : 5245120 (5.00 GiB 5.37 GB)
>> Raid Devices : 2
>> Total Devices : 2
>> Preferred Minor : 0
>> Persistence : Superblock is persistent
>>
>> Update Time : Thu Apr 12 15:21:11 2012
>> State : clean, degraded
>> Active Devices : 1
>> Working Devices : 2
>> Failed Devices : 0
>> Spare Devices : 1
>>
>> UUID : 6d55797f:61355a14:c230666b:5103eba0
>> Events : 0.1989298
>>
>> Number Major Minor RaidDevice State
>> 0 8 1 0 active sync /dev/sda1
>> 2 8 17 1 spare rebuilding /dev/sdb1
>>
>> qualche suggerimento?
>>
>> Grazie
>> Francesco
>>
>> PS: si noti che i due dischi hanno altre partizioni e questa è l'unica
>> che si degrada, le altre sono OK, raid attivi e funzionanti
>>
>> --
>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>
>
>
> --
> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://lugbs.linux.it/pipermail/lug/attachments/20120413/0508648c/attachment.html>
Maggiori informazioni sulla lista
Lug
|