Raid 1 wiedervereinen

  • Mir ist in meinem Server die OS Platte gestorben. In diesem waren 2 1TB HDDs im Software Raid1 und eine 80GB OS HDD (die jetzt kaputt ist).
    Ich habe also Ubuntu Server neu installiert und die Beiden 1 TB HDDs eingebaut. Ich habe den Umstand gleich genutzt um auf einen IBM System x3200 M3 upzugraden.
    Wenn ich mich mit meiner Weboberfläche Anmelde sehe ich, dass Beide platten als Member des Raids DATA1 erkannt werden, wenn ich aber die Partition mounten will Steht die Warnung das eine der Disks fehlt.
    Das Mounten funktioniert und es sind alle Daten vorhanden aber ich möchte dennoch wieder mein RAID1 haben um den ausfall einer HDD kompensieren zu können.
    Liegt es eventuell am neuen Controller?

  • Was sagt denn

    Code
    cat /proc/mdstat

    ? (als root / mit sudo)?

    Wenn es das Raid nicht erkennt, dann

    Code
    mdadm --assemble --scan

    als root oder mit sudo.
    Und nochmals

    Code
    cat /proc/mdstat

    Wenn alles okay ist, müsste die Ausgabe wie folgt aussehen:

    Code
    md0 : active raid1 sdf1[1] sde1[0]
          242676 blocks super 1.2 [2/2] [UU]

    Wenn anstelle UU ein _U oder U_ zu finden sind, ist das Raid durch deinen Mountversuch degraded. Da hilft nur, eine Platte entfernen, LowLevel-formatieren und erneut einbinden und ein Rebuild des Arrays starten.
    Grundsätzlich:
    Wenn Du ein Softwareraid in einen anderen Rechner / einer neuen Installation einfügst, musst Du erst scannen (mdadm --assemble --scan) und dann mit checken, wie der Raidstatus ist.
    Du musst immer das Raid mit seinem "Namen" mounten. Niemals als sda/sdb/sdc!
    In dem Beispiel ist das Raid dann md0, mounten würdest Du es dann über mount /dev/md0, da Du ja das Array haben willst und keine einzelne HDD.

    Hier kannst Du einiges zum Thema nachlesen:
    Software-RAID - ubuntuusers.de

    Einmal editiert, zuletzt von Marc (4. November 2019 um 16:24)

  • Danke für die Tips. Werde ich vielleicht heute noch ausprobieren.
    Mein Mountversuch war über die Oberfläche von Cockpit (mit der hatte ich damals auf 1604 auch das Raid erstellt).
    Es wurde von der Oberfläche auch mit seinem namen gemountet.
    Ich hab nur einmal direkt nach dem OS Crash ein Lubuntu von nem stick gebootet und eine HDD mit der anleitung:
    https://blog.sleeplessbeastie.eu/2012/05/08/how…er-using-mdadm/
    gemounted um die wichtigsten daten zu sichern

    EDIT:
    Ok es wird als [_U] angezeigt. Wie weiß ich welche Platte ich löschen muss?
    ich möchte nicht die Daten erneut kopieren müssen.
    Hätte mir auch vorher klar sein müssen, da diese Warnung im Fenster für das Raid erscheint :"Das RAID-Array befindet sich in einem degradierten Zustand - 1 Festplatte fehlt"

    Einmal editiert, zuletzt von BW89 (4. November 2019 um 19:59)

  • Was ist denn die genaue Ausgabe von

    Code
    cat /proc/mdstat

    Poste die doch einmal bitte, oder prüfe selbst.
    Da steht dann eigentlich drin, welche, der beiden Partitionen bzw HDDs noch aktiv ist, wenn wirklich eine fehlt.

  • Code
    Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
    md127 : active (auto-read-only) raid1 sdc1[1] 
          976630464 blocks super 1.2 [2/1] [_U]
          bitmap: 5/8 pages [20KB], 65536KB chunk
    
    
    unused devices: <none>


    Das ist die komplette Ausgabe

    Einmal editiert, zuletzt von BW89 (6. November 2019 um 19:54)

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!