linux user group brescia

immagine del castello

Archivio della mailing list

[LugBS] problemone con mdadm

Rampage Rmp atomikramp a gmail.com
Mar 17 Apr 2012 07:24:52 UTC
Ciao,
i blocchi delle partizioni sono assolutamente identici, comunque in
settimana proverò ad avviare la macchina con una live e riassemblare il
raid.

il problema è che la partizione è di sistema (/) quindi non posso fare un
mdadm --assemble e provare a fare un clean rebuild

On Tue, Apr 17, 2012 at 7:25 AM, ilcava <ilcava a gmail.com> wrote:

> Ciao,
> penso che hai già controllato il numero di blocchi per le partizioni, io
> uso il commando "fdisk -l" per ovviare qualsiasi arrotondamento nella
> misurazione.
> Se anche quello è apposto valuterei di sentirci direttamente. Fammi sapere
> che ci accordiamo, magari in 2 riusciamo ad aumentare i disastri :)
>
> Marco...
>
>
> Il giorno 16 aprile 2012 10:23, Rampage Rmp <atomikramp a gmail.com> ha
> scritto:
>
>> ecco l'output di cat /proc/mdstat e mdadm -D
>>
>> Personalities : [raid1]
>> md0 : active raid1 sda1[0]
>>       5245120 blocks [2/1] [U_]
>>
>> /dev/md0:
>>         Version : 00.90.03
>>   Creation Time : Thu Apr  7 17:35:17 2011
>>      Raid Level : raid1
>>      Array Size : 5245120 (5.00 GiB 5.37 GB)
>>   Used Dev Size : 5245120 (5.00 GiB 5.37 GB)
>>    Raid Devices : 2
>>   Total Devices : 1
>> Preferred Minor : 0
>>     Persistence : Superblock is persistent
>>
>>     Update Time : Mon Apr 16 10:23:30 2012
>>           State : clean, degraded
>>  Active Devices : 1
>> Working Devices : 1
>>  Failed Devices : 0
>>   Spare Devices : 0
>>
>>            UUID : 6d55797f:61355a14:c230666b:5103eba0
>>          Events : 0.2136208
>>
>>     Number   Major   Minor   RaidDevice State
>>        0       8        1        0      active sync   /dev/sda1
>>        1       0        0        1      removed
>>
>>
>> On Sun, Apr 15, 2012 at 6:54 PM, Rampage Rmp <atomikramp a gmail.com>wrote:
>>
>>> Ciao, ti dico meglio domani perchè ora non ho la macchina sotto mano.
>>>
>>> però posso dirti a grandi linee che nei details vedo
>>>
>>> active, degraded
>>>
>>> e per uno dei due dischi vedo "removed" mentre per l'altro vedo "active,
>>> sync"
>>>
>>> comunque domani posto meglio entrambi gli output dei comandi.
>>>
>>> intanto grazie
>>> Francesco
>>>
>>> On Sat, Apr 14, 2012 at 2:50 PM, ilcava <ilcava a gmail.com> wrote:
>>>
>>>> Per quanto mi riguarda uso 2 dischi differenti, un Wester Digital e un
>>>> Maxtor prodotti in anni diversi, quindi non ritengo sia questo il problema.
>>>>
>>>> Quando rimuovi il disco che non entra in sync che stato hai per il
>>>> RAID, sia da "mdadm --detail" che dal file "cat /proc/mdstat"?
>>>>
>>>> Ciao
>>>>
>>>>
>>>> Il giorno 14 aprile 2012 14:44, Rampage Rmp <atomikramp a gmail.com> ha
>>>> scritto:
>>>>
>>>>>  i dischi sono assolutamente identici, stessa marca, stesso modello,
>>>>> addirittura stesso batch produttivo.
>>>>>
>>>>> arrivavano assieme tutti e due all'interno del server.
>>>>>
>>>>> On Sat, Apr 14, 2012 at 7:43 AM, Marco Manenti <
>>>>> marco.manenti a gmail.com> wrote:
>>>>>
>>>>>>
>>>>>> Ciao, i dischi sono uguali? Se si stessa marca? Solitamente se hanno
>>>>>> entrambi la stessa dimensione dichiarata ma marche o modelli diversi non
>>>>>> hanno gli stessi identici settori
>>>>>> Prova con fdisk a vedere.
>>>>>>
>>>>>> Il giorno 13/apr/2012, alle ore 15:01, Rampage Rmp <
>>>>>> atomikramp a gmail.com> ha scritto:
>>>>>>
>>>>>> CIao,
>>>>>> avevo già fatto quanto mi hai detto,
>>>>>> ho rimosso il disco e riaggiunto ma il problema persiste.
>>>>>>
>>>>>> questa è la situazione:
>>>>>>
>>>>>> Every 2,0s: cat /proc/mdstat
>>>>>>                                               Fri Apr 13 14:59:36 2012
>>>>>>
>>>>>> Personalities : [raid1]
>>>>>> md0 : active raid1 sdb1[2] sda1[0]
>>>>>>       5245120 blocks [2/1] [U_]
>>>>>>       [===================>.]  recovery = 99.4% (5216128/5245120)
>>>>>> finish=0.0min speed=50809K/sec
>>>>>>
>>>>>> arriva lì e poi...
>>>>>>
>>>>>> Personalities : [raid1]
>>>>>> md0 : active raid1 sdb1[2] sda1[0]
>>>>>>       5245120 blocks [2/1] [U_]
>>>>>>
>>>>>>
>>>>>> questo è quello che vedo dopo.
>>>>>>
>>>>>> Francesco
>>>>>>
>>>>>> On Fri, Apr 13, 2012 at 1:53 PM, ilcava <ilcava a gmail.com> wrote:
>>>>>>
>>>>>>> Dallo stato sembra che il disco sia in spare, e non un disco attivo.
>>>>>>> Comunque il comportamento mi sembra strano, prova a rimuovere il
>>>>>>> disco e reinserirlo:
>>>>>>>
>>>>>>> mdadm --manage /dev/md0 --fail /dev/sdb1
>>>>>>> mdadm --manage /dev/md0 --remove /dev/sdb1
>>>>>>> mdadm --manage /dev/md0 --add /dev/sdb1
>>>>>>>
>>>>>>> attenzione ad usare i riferimenti dei dischi e del raid corretti,
>>>>>>> altrimenti rischi di rimuovere la partizione attiva.
>>>>>>> Se non funziona puoi mandare il commando:
>>>>>>> cat /proc/mdstat
>>>>>>>
>>>>>>> Ti allego anche un link che ho usato come guida quando ho sostituito
>>>>>>> il disco del raid:
>>>>>>> http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array
>>>>>>>
>>>>>>> Ciao
>>>>>>>
>>>>>>> Il giorno 12 aprile 2012 15:22, Rampage Rmp <atomikramp a gmail.com>ha scritto:
>>>>>>>
>>>>>>>>  Ciao a tutti ragazzi,
>>>>>>>> ho bisogno di un vostro consiglio perchè ho un problema con mdadm
>>>>>>>> che non riesco a spiegarmi.
>>>>>>>>
>>>>>>>> ho appena sostituito un disco di un raid1 perchè pensavo che quello
>>>>>>>> precedente avesse problemi.
>>>>>>>>
>>>>>>>> Ho copiato la partition table dal disco principale, e ho rifatto
>>>>>>>> l'add del disco con mdadm --add /dev/md0 /dev/sdb1
>>>>>>>>
>>>>>>>> se faccio cat /proc/mdstat vedo il raid in rebuild, quando però
>>>>>>>> arriva in fondo, si ferma appena prima del completamento e poi non si
>>>>>>>> completa
>>>>>>>>
>>>>>>>> mdadm -D /dev/md0 mi dice che il raid è in continuo rebuild
>>>>>>>>
>>>>>>>> se faccio un dmesg vedo errori del tipo:
>>>>>>>>
>>>>>>>> [10249.139127] RAID1 conf printout:
>>>>>>>> [10249.139129]  --- wd:1 rd:2
>>>>>>>> [10249.139132]  disk 0, wo:0, o:1, dev:sda1
>>>>>>>> [10249.139135]  disk 1, wo:1, o:1, dev:sdb1
>>>>>>>>
>>>>>>>>
>>>>>>>> questo è l'output di mdadm -D
>>>>>>>>
>>>>>>>> /dev/md0:
>>>>>>>>         Version : 00.90.03
>>>>>>>>   Creation Time : Thu Apr  7 17:35:17 2011
>>>>>>>>      Raid Level : raid1
>>>>>>>>      Array Size : 5245120 (5.00 GiB 5.37 GB)
>>>>>>>>   Used Dev Size : 5245120 (5.00 GiB 5.37 GB)
>>>>>>>>    Raid Devices : 2
>>>>>>>>   Total Devices : 2
>>>>>>>> Preferred Minor : 0
>>>>>>>>     Persistence : Superblock is persistent
>>>>>>>>
>>>>>>>>     Update Time : Thu Apr 12 15:21:11 2012
>>>>>>>>           State : clean, degraded
>>>>>>>>  Active Devices : 1
>>>>>>>> Working Devices : 2
>>>>>>>>  Failed Devices : 0
>>>>>>>>   Spare Devices : 1
>>>>>>>>
>>>>>>>>            UUID : 6d55797f:61355a14:c230666b:5103eba0
>>>>>>>>          Events : 0.1989298
>>>>>>>>
>>>>>>>>     Number   Major   Minor   RaidDevice State
>>>>>>>>        0       8        1        0      active sync   /dev/sda1
>>>>>>>>        2       8       17        1      spare rebuilding   /dev/sdb1
>>>>>>>>
>>>>>>>> qualche suggerimento?
>>>>>>>>
>>>>>>>> Grazie
>>>>>>>> Francesco
>>>>>>>>
>>>>>>>> PS: si noti che i due dischi hanno altre partizioni e questa è
>>>>>>>> l'unica che si degrada, le altre sono OK, raid attivi e funzionanti
>>>>>>>>
>>>>>>>> --
>>>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>>>
>>>>>>>
>>>>>>>
>>>>>>> --
>>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>>
>>>>>>
>>>>>> --
>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>
>>>>>>
>>>>>> --
>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>
>>>>>
>>>>>
>>>>> --
>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>
>>>>
>>>>
>>>> --
>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>
>>>
>>>
>>
>> --
>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>
>
>
> --
> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://lugbs.linux.it/pipermail/lug/attachments/20120417/736640bc/attachment-0001.html>


Maggiori informazioni sulla lista Lug