[LugBS] problemone con mdadm
Rampage Rmp
atomikramp a gmail.com
Mar 17 Apr 2012 07:24:52 UTC
Ciao,
i blocchi delle partizioni sono assolutamente identici, comunque in
settimana proverò ad avviare la macchina con una live e riassemblare il
raid.
il problema è che la partizione è di sistema (/) quindi non posso fare un
mdadm --assemble e provare a fare un clean rebuild
On Tue, Apr 17, 2012 at 7:25 AM, ilcava <ilcava a gmail.com> wrote:
> Ciao,
> penso che hai già controllato il numero di blocchi per le partizioni, io
> uso il commando "fdisk -l" per ovviare qualsiasi arrotondamento nella
> misurazione.
> Se anche quello è apposto valuterei di sentirci direttamente. Fammi sapere
> che ci accordiamo, magari in 2 riusciamo ad aumentare i disastri :)
>
> Marco...
>
>
> Il giorno 16 aprile 2012 10:23, Rampage Rmp <atomikramp a gmail.com> ha
> scritto:
>
>> ecco l'output di cat /proc/mdstat e mdadm -D
>>
>> Personalities : [raid1]
>> md0 : active raid1 sda1[0]
>> 5245120 blocks [2/1] [U_]
>>
>> /dev/md0:
>> Version : 00.90.03
>> Creation Time : Thu Apr 7 17:35:17 2011
>> Raid Level : raid1
>> Array Size : 5245120 (5.00 GiB 5.37 GB)
>> Used Dev Size : 5245120 (5.00 GiB 5.37 GB)
>> Raid Devices : 2
>> Total Devices : 1
>> Preferred Minor : 0
>> Persistence : Superblock is persistent
>>
>> Update Time : Mon Apr 16 10:23:30 2012
>> State : clean, degraded
>> Active Devices : 1
>> Working Devices : 1
>> Failed Devices : 0
>> Spare Devices : 0
>>
>> UUID : 6d55797f:61355a14:c230666b:5103eba0
>> Events : 0.2136208
>>
>> Number Major Minor RaidDevice State
>> 0 8 1 0 active sync /dev/sda1
>> 1 0 0 1 removed
>>
>>
>> On Sun, Apr 15, 2012 at 6:54 PM, Rampage Rmp <atomikramp a gmail.com>wrote:
>>
>>> Ciao, ti dico meglio domani perchè ora non ho la macchina sotto mano.
>>>
>>> però posso dirti a grandi linee che nei details vedo
>>>
>>> active, degraded
>>>
>>> e per uno dei due dischi vedo "removed" mentre per l'altro vedo "active,
>>> sync"
>>>
>>> comunque domani posto meglio entrambi gli output dei comandi.
>>>
>>> intanto grazie
>>> Francesco
>>>
>>> On Sat, Apr 14, 2012 at 2:50 PM, ilcava <ilcava a gmail.com> wrote:
>>>
>>>> Per quanto mi riguarda uso 2 dischi differenti, un Wester Digital e un
>>>> Maxtor prodotti in anni diversi, quindi non ritengo sia questo il problema.
>>>>
>>>> Quando rimuovi il disco che non entra in sync che stato hai per il
>>>> RAID, sia da "mdadm --detail" che dal file "cat /proc/mdstat"?
>>>>
>>>> Ciao
>>>>
>>>>
>>>> Il giorno 14 aprile 2012 14:44, Rampage Rmp <atomikramp a gmail.com> ha
>>>> scritto:
>>>>
>>>>> i dischi sono assolutamente identici, stessa marca, stesso modello,
>>>>> addirittura stesso batch produttivo.
>>>>>
>>>>> arrivavano assieme tutti e due all'interno del server.
>>>>>
>>>>> On Sat, Apr 14, 2012 at 7:43 AM, Marco Manenti <
>>>>> marco.manenti a gmail.com> wrote:
>>>>>
>>>>>>
>>>>>> Ciao, i dischi sono uguali? Se si stessa marca? Solitamente se hanno
>>>>>> entrambi la stessa dimensione dichiarata ma marche o modelli diversi non
>>>>>> hanno gli stessi identici settori
>>>>>> Prova con fdisk a vedere.
>>>>>>
>>>>>> Il giorno 13/apr/2012, alle ore 15:01, Rampage Rmp <
>>>>>> atomikramp a gmail.com> ha scritto:
>>>>>>
>>>>>> CIao,
>>>>>> avevo già fatto quanto mi hai detto,
>>>>>> ho rimosso il disco e riaggiunto ma il problema persiste.
>>>>>>
>>>>>> questa è la situazione:
>>>>>>
>>>>>> Every 2,0s: cat /proc/mdstat
>>>>>> Fri Apr 13 14:59:36 2012
>>>>>>
>>>>>> Personalities : [raid1]
>>>>>> md0 : active raid1 sdb1[2] sda1[0]
>>>>>> 5245120 blocks [2/1] [U_]
>>>>>> [===================>.] recovery = 99.4% (5216128/5245120)
>>>>>> finish=0.0min speed=50809K/sec
>>>>>>
>>>>>> arriva lì e poi...
>>>>>>
>>>>>> Personalities : [raid1]
>>>>>> md0 : active raid1 sdb1[2] sda1[0]
>>>>>> 5245120 blocks [2/1] [U_]
>>>>>>
>>>>>>
>>>>>> questo è quello che vedo dopo.
>>>>>>
>>>>>> Francesco
>>>>>>
>>>>>> On Fri, Apr 13, 2012 at 1:53 PM, ilcava <ilcava a gmail.com> wrote:
>>>>>>
>>>>>>> Dallo stato sembra che il disco sia in spare, e non un disco attivo.
>>>>>>> Comunque il comportamento mi sembra strano, prova a rimuovere il
>>>>>>> disco e reinserirlo:
>>>>>>>
>>>>>>> mdadm --manage /dev/md0 --fail /dev/sdb1
>>>>>>> mdadm --manage /dev/md0 --remove /dev/sdb1
>>>>>>> mdadm --manage /dev/md0 --add /dev/sdb1
>>>>>>>
>>>>>>> attenzione ad usare i riferimenti dei dischi e del raid corretti,
>>>>>>> altrimenti rischi di rimuovere la partizione attiva.
>>>>>>> Se non funziona puoi mandare il commando:
>>>>>>> cat /proc/mdstat
>>>>>>>
>>>>>>> Ti allego anche un link che ho usato come guida quando ho sostituito
>>>>>>> il disco del raid:
>>>>>>> http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array
>>>>>>>
>>>>>>> Ciao
>>>>>>>
>>>>>>> Il giorno 12 aprile 2012 15:22, Rampage Rmp <atomikramp a gmail.com>ha scritto:
>>>>>>>
>>>>>>>> Ciao a tutti ragazzi,
>>>>>>>> ho bisogno di un vostro consiglio perchè ho un problema con mdadm
>>>>>>>> che non riesco a spiegarmi.
>>>>>>>>
>>>>>>>> ho appena sostituito un disco di un raid1 perchè pensavo che quello
>>>>>>>> precedente avesse problemi.
>>>>>>>>
>>>>>>>> Ho copiato la partition table dal disco principale, e ho rifatto
>>>>>>>> l'add del disco con mdadm --add /dev/md0 /dev/sdb1
>>>>>>>>
>>>>>>>> se faccio cat /proc/mdstat vedo il raid in rebuild, quando però
>>>>>>>> arriva in fondo, si ferma appena prima del completamento e poi non si
>>>>>>>> completa
>>>>>>>>
>>>>>>>> mdadm -D /dev/md0 mi dice che il raid è in continuo rebuild
>>>>>>>>
>>>>>>>> se faccio un dmesg vedo errori del tipo:
>>>>>>>>
>>>>>>>> [10249.139127] RAID1 conf printout:
>>>>>>>> [10249.139129] --- wd:1 rd:2
>>>>>>>> [10249.139132] disk 0, wo:0, o:1, dev:sda1
>>>>>>>> [10249.139135] disk 1, wo:1, o:1, dev:sdb1
>>>>>>>>
>>>>>>>>
>>>>>>>> questo è l'output di mdadm -D
>>>>>>>>
>>>>>>>> /dev/md0:
>>>>>>>> Version : 00.90.03
>>>>>>>> Creation Time : Thu Apr 7 17:35:17 2011
>>>>>>>> Raid Level : raid1
>>>>>>>> Array Size : 5245120 (5.00 GiB 5.37 GB)
>>>>>>>> Used Dev Size : 5245120 (5.00 GiB 5.37 GB)
>>>>>>>> Raid Devices : 2
>>>>>>>> Total Devices : 2
>>>>>>>> Preferred Minor : 0
>>>>>>>> Persistence : Superblock is persistent
>>>>>>>>
>>>>>>>> Update Time : Thu Apr 12 15:21:11 2012
>>>>>>>> State : clean, degraded
>>>>>>>> Active Devices : 1
>>>>>>>> Working Devices : 2
>>>>>>>> Failed Devices : 0
>>>>>>>> Spare Devices : 1
>>>>>>>>
>>>>>>>> UUID : 6d55797f:61355a14:c230666b:5103eba0
>>>>>>>> Events : 0.1989298
>>>>>>>>
>>>>>>>> Number Major Minor RaidDevice State
>>>>>>>> 0 8 1 0 active sync /dev/sda1
>>>>>>>> 2 8 17 1 spare rebuilding /dev/sdb1
>>>>>>>>
>>>>>>>> qualche suggerimento?
>>>>>>>>
>>>>>>>> Grazie
>>>>>>>> Francesco
>>>>>>>>
>>>>>>>> PS: si noti che i due dischi hanno altre partizioni e questa è
>>>>>>>> l'unica che si degrada, le altre sono OK, raid attivi e funzionanti
>>>>>>>>
>>>>>>>> --
>>>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>>>
>>>>>>>
>>>>>>>
>>>>>>> --
>>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>>
>>>>>>
>>>>>> --
>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>
>>>>>>
>>>>>> --
>>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>>
>>>>>
>>>>>
>>>>> --
>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>
>>>>
>>>>
>>>> --
>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>
>>>
>>>
>>
>> --
>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>
>
>
> --
> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://lugbs.linux.it/pipermail/lug/attachments/20120417/736640bc/attachment-0001.html>
Maggiori informazioni sulla lista
Lug
|