linux user group brescia

immagine del castello

Archivio della mailing list

[LugBS] problemone con mdadm

Rampage Rmp atomikramp a gmail.com
Ven 13 Apr 2012 13:01:00 UTC
CIao,
avevo già fatto quanto mi hai detto,
ho rimosso il disco e riaggiunto ma il problema persiste.

questa è la situazione:

Every 2,0s: cat /proc/mdstat
                                        Fri Apr 13 14:59:36 2012

Personalities : [raid1]
md0 : active raid1 sdb1[2] sda1[0]
      5245120 blocks [2/1] [U_]
      [===================>.]  recovery = 99.4% (5216128/5245120)
finish=0.0min speed=50809K/sec

arriva lì e poi...

Personalities : [raid1]
md0 : active raid1 sdb1[2] sda1[0]
      5245120 blocks [2/1] [U_]


questo è quello che vedo dopo.

Francesco

On Fri, Apr 13, 2012 at 1:53 PM, ilcava <ilcava a gmail.com> wrote:

> Dallo stato sembra che il disco sia in spare, e non un disco attivo.
> Comunque il comportamento mi sembra strano, prova a rimuovere il disco e
> reinserirlo:
>
> mdadm --manage /dev/md0 --fail /dev/sdb1
> mdadm --manage /dev/md0 --remove /dev/sdb1
> mdadm --manage /dev/md0 --add /dev/sdb1
>
> attenzione ad usare i riferimenti dei dischi e del raid corretti,
> altrimenti rischi di rimuovere la partizione attiva.
> Se non funziona puoi mandare il commando:
> cat /proc/mdstat
>
> Ti allego anche un link che ho usato come guida quando ho sostituito il
> disco del raid:
> http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array
>
> Ciao
>
> Il giorno 12 aprile 2012 15:22, Rampage Rmp <atomikramp a gmail.com> ha
> scritto:
>
>> Ciao a tutti ragazzi,
>> ho bisogno di un vostro consiglio perchè ho un problema con mdadm che non
>> riesco a spiegarmi.
>>
>> ho appena sostituito un disco di un raid1 perchè pensavo che quello
>> precedente avesse problemi.
>>
>> Ho copiato la partition table dal disco principale, e ho rifatto l'add
>> del disco con mdadm --add /dev/md0 /dev/sdb1
>>
>> se faccio cat /proc/mdstat vedo il raid in rebuild, quando però arriva in
>> fondo, si ferma appena prima del completamento e poi non si completa
>>
>> mdadm -D /dev/md0 mi dice che il raid è in continuo rebuild
>>
>> se faccio un dmesg vedo errori del tipo:
>>
>> [10249.139127] RAID1 conf printout:
>> [10249.139129]  --- wd:1 rd:2
>> [10249.139132]  disk 0, wo:0, o:1, dev:sda1
>> [10249.139135]  disk 1, wo:1, o:1, dev:sdb1
>>
>>
>> questo è l'output di mdadm -D
>>
>> /dev/md0:
>>         Version : 00.90.03
>>   Creation Time : Thu Apr  7 17:35:17 2011
>>      Raid Level : raid1
>>      Array Size : 5245120 (5.00 GiB 5.37 GB)
>>   Used Dev Size : 5245120 (5.00 GiB 5.37 GB)
>>    Raid Devices : 2
>>   Total Devices : 2
>> Preferred Minor : 0
>>     Persistence : Superblock is persistent
>>
>>     Update Time : Thu Apr 12 15:21:11 2012
>>           State : clean, degraded
>>  Active Devices : 1
>> Working Devices : 2
>>  Failed Devices : 0
>>   Spare Devices : 1
>>
>>            UUID : 6d55797f:61355a14:c230666b:5103eba0
>>          Events : 0.1989298
>>
>>     Number   Major   Minor   RaidDevice State
>>        0       8        1        0      active sync   /dev/sda1
>>        2       8       17        1      spare rebuilding   /dev/sdb1
>>
>> qualche suggerimento?
>>
>> Grazie
>> Francesco
>>
>> PS: si noti che i due dischi hanno altre partizioni e questa è l'unica
>> che si degrada, le altre sono OK, raid attivi e funzionanti
>>
>> --
>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>
>
>
> --
> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://lugbs.linux.it/pipermail/lug/attachments/20120413/0508648c/attachment.html>


Maggiori informazioni sulla lista Lug