PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue Platte einbauen nach raid1 ausfall



Chris_72
21-06-2007, 16:01
Hallo,

ich habe ein Suse Linux 9.1 im Einsatz und Software Raid1 mit WD s-ata Platten. Nun ist die erste Platte defekt.

Personalities : [raid1]
md1 : active raid1 sda3[2](F) sdb3[1]
155139584 blocks [2/1] [_U] :eek:

md0 : active raid1 sdb1[1] sda1[0]
88256 blocks [2/2] [UU]


Da es die Datenpartition ist, läuft das System weiterhin. Ich möchte jetzt die defekte Platte tauschen und das Raid1 wieder neu aufbauen bzw syncronisieren. Nun habe ich festgestellt, wenn ich die Platte sda herausnehme kann das System nicht mehr booten. Ich habe das Raid beim Einrichten des Servers über Yast2 erstellt und bin davon ausgegangen das es richtig konfiguriert ist. Wie kann ich das System jetzt von der sdb Platte starten damit ich die neue Platte einsetzen kann? Oder gibt es eine andere Möglichkeit ?

Zur Ergänzung die raidtab:

autogenerated /etc/raidtab by YaST2

raiddev /dev/md0
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
persistent-superblock 1
chunk-size 16
device /dev/sda1
raid-disk 0
device /dev/sdb1
raid-disk 1

raiddev /dev/md1
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
persistent-superblock 1
chunk-size 16
device /dev/sda3
raid-disk 0
device /dev/sdb3

Noch eine Frage: Wo befindet sich der grub Bootloader? Im MBR? Ist der MBR nur auf einer Platte gespeichert (im Raid1 Verbund) ?

$kuLL
23-06-2007, 20:38
Per default wird Grub nur in den MBR der primären Festplatte geschrieben. In deinem Fall also nur auf sda. Du müsstest jetzt eine Linux Live-CD booten und grub in den MBR von sdb installieren, dann kannst du erstmal wieder booten.

Aber mich wundert die Ausgabe von /proc/mdstat. Nur in Array md1 wird sdaX als failed markiert, nicht aber in Array md0. Also scheint sda ja nicht völlig defekt zu sein (wenn überhaupt).

Poste mal die Ausgabe von:

mdadm --detail /dev/md0; mdadm --detail /dev/md1

Chris_72
28-06-2007, 17:04
/dev/md0:
Version : 00.90.01
Creation Time : Wed Jul 6 19:56:29 2005
Raid Level : raid1
Array Size : 88256 (86.19 MiB 90.37 MB)
Device Size : 88256 (86.19 MiB 90.37 MB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Thu Jun 28 17:00:32 2007
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

UUID : b07dbf62:5b172455:b9382537:c18ba563
Events : 0.2860

Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
/dev/md1:
Version : 00.90.01
Creation Time : Wed Jul 6 19:56:34 2005
Raid Level : raid1
Array Size : 155139584 (147.95 GiB 158.86 GB)
Device Size : 155139584 (147.95 GiB 158.86 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent

Update Time : Thu Jun 28 17:02:24 2007
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0

UUID : 4ba4933a:1b37a9e0:3e172156:542d575a
Events : 0.36816800

Number Major Minor RaidDevice State
0 0 0 - removed
1 8 19 1 active sync /dev/sdb3

2 8 3 - faulty /dev/sda3


Wie schreibe ich den MBR auf die /dev/sdb?

Danke für die Anwort!

$kuLL
28-06-2007, 21:30
Wie schreibe ich den MBR auf die /dev/sdb?
Boote eine Linux Live-CD, wie z.B. Knoppix und gib
grub auf der Konsole ein. In der grub-Konsole nun folgenden Code eingeben, um Grub im MBR von sdb zu installieren:

device (hd0) /dev/sdb
root (hd0,0)
setup (hd0)
Danach bootest du wieder von Festplatte.

Dann poste bitte noch die Ausgabe von

mdadm -V
und den Inhalt der Datei /etc/mdadm/mdadm.conf oder /etc/mdadm.conf, je nachdem welche exisitiert.

Chris_72
30-06-2007, 12:37
server:~ # mdadm -V
mdadm - v1.9.0 - 04 February 2005

Die mdadm.conf kann ich nicht finden.

Hab auch schon mit find / -name "mdadm.conf" nach gesucht.

$kuLL
30-06-2007, 18:16
Ok, scheinbar wird in SuSE 9.1 noch mit den veralteten raidtools gearbeitet.
Versuch erstmal das Array zu stoppen und dann über mdadm zu starten:

mdadm -S /dev/md1
mdadm -A /dev/md1 /dev/sd[ab]3
Danach gleich den Inhalt von /proc/mdstat anschauen und hier posten.