- Registriert
- 17.01.06
- Beiträge
- 1.583
Hallo Leute,
in einem eher Windows lastigen Forum habe ich ein paar Beiträge zum Thema ZFS geschrieben. Relativ einfache Grundlagen um mal einen Überblick in die grosse Welt des Volumemanagements zu erhalten. Ich dachte mir ich poste hier auch diese Einführung da ZFS ja auch bei OS X immer mehr an Bedeutung gewinnt.
Viel Spaß beim lesen und nachmachen
.
Wie habe ich getestet?
Ich habe auf meinem Linux Server VMware 1.0.5 laufen und darauf eine Virtuelle Maschine (VM) die mit Opensolaris (Solaris Nevada) Build 81 installiert ist. Aktuell ist die Version 85 die man sich bei Opensolaris/Sun runterladen kann.
Der VM wurden in meinem Fall noch 5 virtuelle Platten (Files von je 1GB grösse auf dem Host System) zugeweisen.
Das sieht dann unter Solaris wie folgt aus:
Die Platte 0. (c0d0 = interne Kennzeichnung der Platten in Solaris) ist dabei die Bootplatte und die Platten 1. - 5. sind die zum testen eingerichteten Devices.
Was kann man nun mit ZFS mit diesen Platten anstellen?
Man kann aus den zur verfügung stehenden Platten jedes Software RAID erstellen das einem in den Sinn kommt. Und das ganze mit nur EINEM Befehl!
Wir wollen mal (nur für einen ersten Eindruck) ein Raid5 (welches bei ZFS RaidZ heisst) erstellen. Das wird mit dem Befehl:
erledigt. Nach dem der o.g. Befehl abgesetzt wurde ist unser Raid auch schon fertig und kann SOFORT (ohne das man erst ein Dateisystem anlegen muss oder das Filesystem zu mounten) benutzt werden! Der Befehl erstellt das Raid und mountet es automatisch nach "/poolname" (in unserem Fall /mypool). Der Mountpoint kann natürlich auch frei gewählt werden! Der "df -h" Output zeigt wie das ganze aussieht:
Mit verschieden Befehlen können wir uns jetzt den Zustand des Pools ansehen.
So. Soweit die erste kleine Einführung. Solltet ihr Interesse an einer Fortsetzung haben, lasst es mich wissen. Ich werde auch versuchen Fragen (wenn ihr welche habt) zu beantworten.
Bis dahin,
DN2
in einem eher Windows lastigen Forum habe ich ein paar Beiträge zum Thema ZFS geschrieben. Relativ einfache Grundlagen um mal einen Überblick in die grosse Welt des Volumemanagements zu erhalten. Ich dachte mir ich poste hier auch diese Einführung da ZFS ja auch bei OS X immer mehr an Bedeutung gewinnt.
Viel Spaß beim lesen und nachmachen

Wie habe ich getestet?
Ich habe auf meinem Linux Server VMware 1.0.5 laufen und darauf eine Virtuelle Maschine (VM) die mit Opensolaris (Solaris Nevada) Build 81 installiert ist. Aktuell ist die Version 85 die man sich bei Opensolaris/Sun runterladen kann.
Der VM wurden in meinem Fall noch 5 virtuelle Platten (Files von je 1GB grösse auf dem Host System) zugeweisen.
Das sieht dann unter Solaris wie folgt aus:
Code:
root@vm002 # format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c0d0 <DEFAULT cyl 1302 alt 2 hd 255 sec 63>
/pci@0,0/pci-ide@7,1/ide@0/cmdk@0,0
1. c2t0d0 <VMware,-VMware Virtual S-1.0-1.00GB>
/pci@0,0/pci1000,30@10/sd@0,0
2. c2t1d0 <VMware,-VMware Virtual S-1.0-1.00GB>
/pci@0,0/pci1000,30@10/sd@1,0
3. c2t2d0 <VMware,-VMware Virtual S-1.0-1.00GB>
/pci@0,0/pci1000,30@10/sd@2,0
4. c2t3d0 <VMware,-VMware Virtual S-1.0-1.00GB>
/pci@0,0/pci1000,30@10/sd@3,0
5. c2t4d0 <VMware,-VMware Virtual S-1.0-1.00GB>
/pci@0,0/pci1000,30@10/sd@4,0
Was kann man nun mit ZFS mit diesen Platten anstellen?
Man kann aus den zur verfügung stehenden Platten jedes Software RAID erstellen das einem in den Sinn kommt. Und das ganze mit nur EINEM Befehl!
Wir wollen mal (nur für einen ersten Eindruck) ein Raid5 (welches bei ZFS RaidZ heisst) erstellen. Das wird mit dem Befehl:
Code:
root@vm002 # zpool create mypool raidz c2t0d0 c2t1d0 c2t2d0 c2t3d0 c2t4d0
Code:
root@vm002 # df -h
Filesystem size used avail capacity Mounted on
/dev/dsk/c0d0s0 7.8G 4.8G 2.9G 62% /
/devices 0K 0K 0K 0% /devices
/dev 0K 0K 0K 0% /dev
.
.
.
ctfs 0K 0K 0K 0% /system/contract
swap 2.4G 52K 2.4G 1% /var/run
[COLOR=Red]mypool 3.9G 28K 3.9G 1% /mypool[/COLOR]
Code:
root@vm002 # zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
mypool 4.94G 171K 4.94G 0% ONLINE -
root@vm002 # zpool status
pool: mypool
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
mypool ONLINE 0 0 0
raidz1 ONLINE 0 0 0
c2t0d0 ONLINE 0 0 0
c2t1d0 ONLINE 0 0 0
c2t2d0 ONLINE 0 0 0
c2t3d0 ONLINE 0 0 0
c2t4d0 ONLINE 0 0 0
errors: No known data errors
Bis dahin,
DN2