linux user group brescia

immagine del castello

Archivio della mailing list

[LugBS] problemone con mdadm

Rampage Rmp atomikramp a gmail.com
Dom 15 Apr 2012 16:54:16 UTC
Ciao, ti dico meglio domani perchè ora non ho la macchina sotto mano.

però posso dirti a grandi linee che nei details vedo

active, degraded

e per uno dei due dischi vedo "removed" mentre per l'altro vedo "active,
sync"

comunque domani posto meglio entrambi gli output dei comandi.

intanto grazie
Francesco

On Sat, Apr 14, 2012 at 2:50 PM, ilcava <ilcava a gmail.com> wrote:

> Per quanto mi riguarda uso 2 dischi differenti, un Wester Digital e un
> Maxtor prodotti in anni diversi, quindi non ritengo sia questo il problema.
>
> Quando rimuovi il disco che non entra in sync che stato hai per il RAID,
> sia da "mdadm --detail" che dal file "cat /proc/mdstat"?
>
> Ciao
>
>
> Il giorno 14 aprile 2012 14:44, Rampage Rmp <atomikramp a gmail.com> ha
> scritto:
>
>> i dischi sono assolutamente identici, stessa marca, stesso modello,
>> addirittura stesso batch produttivo.
>>
>> arrivavano assieme tutti e due all'interno del server.
>>
>> On Sat, Apr 14, 2012 at 7:43 AM, Marco Manenti <marco.manenti a gmail.com>wrote:
>>
>>>
>>> Ciao, i dischi sono uguali? Se si stessa marca? Solitamente se hanno
>>> entrambi la stessa dimensione dichiarata ma marche o modelli diversi non
>>> hanno gli stessi identici settori
>>> Prova con fdisk a vedere.
>>>
>>> Il giorno 13/apr/2012, alle ore 15:01, Rampage Rmp <atomikramp a gmail.com>
>>> ha scritto:
>>>
>>> CIao,
>>> avevo già fatto quanto mi hai detto,
>>> ho rimosso il disco e riaggiunto ma il problema persiste.
>>>
>>> questa è la situazione:
>>>
>>> Every 2,0s: cat /proc/mdstat
>>>                                           Fri Apr 13 14:59:36 2012
>>>
>>> Personalities : [raid1]
>>> md0 : active raid1 sdb1[2] sda1[0]
>>>       5245120 blocks [2/1] [U_]
>>>       [===================>.]  recovery = 99.4% (5216128/5245120)
>>> finish=0.0min speed=50809K/sec
>>>
>>> arriva lì e poi...
>>>
>>> Personalities : [raid1]
>>> md0 : active raid1 sdb1[2] sda1[0]
>>>       5245120 blocks [2/1] [U_]
>>>
>>>
>>> questo è quello che vedo dopo.
>>>
>>> Francesco
>>>
>>> On Fri, Apr 13, 2012 at 1:53 PM, ilcava <ilcava a gmail.com> wrote:
>>>
>>>> Dallo stato sembra che il disco sia in spare, e non un disco attivo.
>>>> Comunque il comportamento mi sembra strano, prova a rimuovere il disco
>>>> e reinserirlo:
>>>>
>>>> mdadm --manage /dev/md0 --fail /dev/sdb1
>>>> mdadm --manage /dev/md0 --remove /dev/sdb1
>>>> mdadm --manage /dev/md0 --add /dev/sdb1
>>>>
>>>> attenzione ad usare i riferimenti dei dischi e del raid corretti,
>>>> altrimenti rischi di rimuovere la partizione attiva.
>>>> Se non funziona puoi mandare il commando:
>>>> cat /proc/mdstat
>>>>
>>>> Ti allego anche un link che ho usato come guida quando ho sostituito il
>>>> disco del raid:
>>>> http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array
>>>>
>>>> Ciao
>>>>
>>>> Il giorno 12 aprile 2012 15:22, Rampage Rmp <atomikramp a gmail.com> ha
>>>> scritto:
>>>>
>>>>>  Ciao a tutti ragazzi,
>>>>> ho bisogno di un vostro consiglio perchè ho un problema con mdadm che
>>>>> non riesco a spiegarmi.
>>>>>
>>>>> ho appena sostituito un disco di un raid1 perchè pensavo che quello
>>>>> precedente avesse problemi.
>>>>>
>>>>> Ho copiato la partition table dal disco principale, e ho rifatto l'add
>>>>> del disco con mdadm --add /dev/md0 /dev/sdb1
>>>>>
>>>>> se faccio cat /proc/mdstat vedo il raid in rebuild, quando però arriva
>>>>> in fondo, si ferma appena prima del completamento e poi non si completa
>>>>>
>>>>> mdadm -D /dev/md0 mi dice che il raid è in continuo rebuild
>>>>>
>>>>> se faccio un dmesg vedo errori del tipo:
>>>>>
>>>>> [10249.139127] RAID1 conf printout:
>>>>> [10249.139129]  --- wd:1 rd:2
>>>>> [10249.139132]  disk 0, wo:0, o:1, dev:sda1
>>>>> [10249.139135]  disk 1, wo:1, o:1, dev:sdb1
>>>>>
>>>>>
>>>>> questo è l'output di mdadm -D
>>>>>
>>>>> /dev/md0:
>>>>>         Version : 00.90.03
>>>>>   Creation Time : Thu Apr  7 17:35:17 2011
>>>>>      Raid Level : raid1
>>>>>      Array Size : 5245120 (5.00 GiB 5.37 GB)
>>>>>   Used Dev Size : 5245120 (5.00 GiB 5.37 GB)
>>>>>    Raid Devices : 2
>>>>>   Total Devices : 2
>>>>> Preferred Minor : 0
>>>>>     Persistence : Superblock is persistent
>>>>>
>>>>>     Update Time : Thu Apr 12 15:21:11 2012
>>>>>           State : clean, degraded
>>>>>  Active Devices : 1
>>>>> Working Devices : 2
>>>>>  Failed Devices : 0
>>>>>   Spare Devices : 1
>>>>>
>>>>>            UUID : 6d55797f:61355a14:c230666b:5103eba0
>>>>>          Events : 0.1989298
>>>>>
>>>>>     Number   Major   Minor   RaidDevice State
>>>>>        0       8        1        0      active sync   /dev/sda1
>>>>>        2       8       17        1      spare rebuilding   /dev/sdb1
>>>>>
>>>>> qualche suggerimento?
>>>>>
>>>>> Grazie
>>>>> Francesco
>>>>>
>>>>> PS: si noti che i due dischi hanno altre partizioni e questa è l'unica
>>>>> che si degrada, le altre sono OK, raid attivi e funzionanti
>>>>>
>>>>> --
>>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>>
>>>>
>>>>
>>>> --
>>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>>
>>>
>>> --
>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>
>>>
>>> --
>>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>>
>>
>>
>> --
>> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>>
>
>
> --
> Info/Lamentele/Segnalazioni: andrea.gelmini a gmail.com
>
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://lugbs.linux.it/pipermail/lug/attachments/20120415/cc375ea8/attachment.html>


Maggiori informazioni sulla lista Lug