• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Viele hassen ihn, manche schwören auf ihn, wir aber möchten unbedingt sehen, welche Bilder Ihr vor Eurem geistigen Auge bzw. vor der Linse Eures iPhone oder iPad sehen könnt, wenn Ihr dieses Wort hört oder lest. Macht mit und beteiligt Euch an unserem Frühjahrsputz ---> Klick

Eine neue Chance für xfs am Mac?

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.059
Gibt es jene haltbaren Server SSDs mit SATA und halbwegs bezahlbar?
Es gibt einige Server SSDs mit SATA Port, aber wie lange die jetzt haltbar sind, müßte ich erst nachschauen. Ok, die Intel DC S3700 schafft zumindest 10 RDWD über 5 Jahre. Das heißt 10 mal am Tag die SSD vollständige zufällige Beschreiben und das über 5 Jahre. Das ist für eine Server SSD am unteren Ende der Lebensdauer.

Die SmartOptimus Ultra+ (SAS Interface) bringt es auf 50 RDWDs über 5 Jahre. Zu beachten ist ferner Server SSDs ziehen relativ viel Strom, egal welches Interface sie haben.
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Hätte btrfs eine Chance als Grundlage für ein neues Mac Filesystem?
https://de.wikipedia.org/wiki/Btrfs
http://www.heise.de/open/artikel/Das-Dateisystem-Btrfs-221863.html
http://wiki.ubuntuusers.de/Btrfs-Dateisystem
http://kofler.info/blog/134/126/btrfs---Linux-Dateisystem-der-Zukunft/

http://www.admin-magazin.de/Das-Heft/2009/04/Das-neue-Linux-Dateisystem-Btrfs-im-Detail

Die Featureliste klingt vielversprechend
Es ist OpenSource, wie so Vieles im Mac OS X Unterbau
Es wird von Oracle gesponsert
Es weist viele Gemeinsamkeiten mit XFS auf

Nachtrag:
Verwendet HFS+ eigentlich auch Prüfsummen um Fehler bei der Speicherung zu erkennen und ggf. auch korrigieren zu können?
https://de.wikipedia.org/wiki/Prüfsumme
 
Zuletzt bearbeitet:

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Verwendet HFS+ eigentlich auch Prüfsummen um Fehler bei der Speicherung zu erkennen und ggf. auch korrigieren zu können?
Selbstverständlich nicht. Wäre ein Armutszeugnis, solchen Schildbürgermurks auf Dateisystemebene einzubauen (noch ein weiteres mal).
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Und wie überprüft HFS+ die Daten-Integrität?
Kann HFS+ Fehler erkennen und reparieren?

Zu meinem eigentlichen Themen Anliegen - eine mögliche zukünftige Ablöse von HFS+
Bei btrfs stand ZFS Pate - und mit ZFS hatte sich Apple schon einmal befasst
Auch Apple hatte ZFS-Unterstützung in Mac-OS-X-Version (10.5 Leopard) integriert, wenn auch nur lesend. Eine Implementierung war für die Version Snow Leopard Server angekündigt worden, wurde jedoch nicht veröffentlicht. Stattdessen wurden auf Apples Open-Source-Projektseite Mac OS Forge Quelltext und Binärprogramme der ZFS-Portierung veröffentlicht. Am 23. Oktober 2009 gab Apple dort bekannt, dass das ZFS-Projekt eingestellt wurde.[8] Seit September 2012 gibt es eine ZFS-Implementierung für OS X von der Firma GreenBytes.[9]
 

MacAlzenau

Golden Noble
Registriert
26.12.05
Beiträge
22.501
Vermutlich eine naive Frage, aber was passiert, wenn auf dem Ziel-Speicher ein defekter Sektor liegt? Wird der beim Kopieren automatisch ausgeblendet oder muß man damit rechnen, daß man fleissig kopiert und auch sichert und dann irgendwann nur noch unlesbare Dateien hat?
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Selbst eine CD weist ausgeklügelte Mechanismen auf um fehlerhafte Daten erkennen und korrigieren zu können, warum sollte dies bei einer Festplatte nicht der Fall sein? Was spricht gegen Mechanismen wie z.B. eine CRC Prüfsumme?

Davon auszugehen, dass geschriebene und ausgelesene Daten immer korrekt sind, wäre Fischen im Trüben.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
was passiert, wenn auf dem Ziel-Speicher ein defekter Sektor liegt?
Sobald die Firmware der Festplatte auf einen Sektor stösst, dessen Prüfsumme beim lesen nicht stimmt, versucht sie ihn wiederholt anzusteuern und erneut zu lesen. Wenn das mit einer vom Hersteller vorbestimmten Anzahl von Versuchen endlich gelingt, wird sein Inhalt sofort auf einen Spare-Sektor umkopiert und der fehlerhafte für immer ausser Betrieb genommen. Das gleiche passiert auch dann, wenn die Daten zwar noch intakt gelesen werden können, jedoch anhand der vorgegebenen Toleranzgenzen ein baldiger Ausfall vorhersehbar ist.
Bei heutigen typischen Festplatten im TB-Bereich mit entsprechend hohem Datendurchsatz geschieht das im Schnitt alle 1-10 Minuten. Ganz ohne jedes Zutun des Betriebssystems.
 

MacAlzenau

Golden Noble
Registriert
26.12.05
Beiträge
22.501
Aha, also doch eine Prüfung, nur auf einer hardwarenahen Ebene, nicht für die gesamte Datei.
Scheint mir vernünftig.
Danke.
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Und warum verwendet dann das Server-Filesystem ZFS Prüfsummen?

https://de.wikipedia.org/wiki/ZFS_(Dateisystem)
Neben den Möglichkeiten, Daten gegen Festplattenausfälle zu sichern, wird außerdem jeder einzelne Block im Dateisystem mit einer Prüfsumme versehen, so dass Datenfehler im Dateisystem (z. B. verursacht durch Datenübertragungsfehler) automatisch erkannt und ggf. ohne manuellen Eingriff behoben werden können. DerPerformance-Verlust ist dabei minimal. Auch stellt ZFS sicher, dass der Zustand des Dateisystems zu jeder Zeit konsistent ist und deshalb auch beispielsweise nach einem Stromausfall kein Überprüfen des Dateisystems (per fsck) notwendig ist.

Das machen die doch nicht aus bloß aus Jux :cool:

Mir wäre lieber sich nicht nur auf die Hardware zu verlassen!
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Und wirken die Prüfsummen nicht auch in „Normalfall“?
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Da man für die Deduplizierung sowieso sämtliche Cluster hashen muss, kann man diese Prüfsummen natürlich auch für beliebige andere Zwecke nutzen. Wer aber glaubt, seine Daten wären dadurch irgendwie "sicherer", der meint wohl auch eine Lebensversicherung sorge dafür dass man steinalt werden würde wie Joopi Heesters.
Auf einer SSD beispielsweise sind blockbasierte Checksummen zur Datenverifizierung etwa so nützlich wie die legendäre Kerbe im Bootsrumpf bei der Glockenversenkung in Schilda. "Kompletter Schwachsinn" ist da noch eine milde Formulierung, dagegen wirkt sogar das Windows-typische "Defragmentieren" noch klug und sinvoll.
Wie man wirklich vernünftig und resourcensparend mit Checksummen umgeht, das kann man sich als Beispiel beim Apple Diskimages-Framework oder bei Adobes Asset-Management ansehen.
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Was hätte Apple wohl bei einem generellen Umstieg auf ZFS getan? Die Prüfsummen am Client einfach links liegen gelassen, oder doch auch für die Integritätsprüfung herangezogen?

Und was wäre an einer Möglichkeit die Integrität von Datenbeständen überprüfen zu können und die Möglichkeit einer Reparatur, unabhängig davon was die Hardware tut, so schlecht? Auch M$ „bastelt“ an einem „unkaputtbaren“ Filesystem, ReFS sehe ich nur als einen Zwischenschritt.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Die Prüfsummen am Client einfach links liegen gelassen
Soweit ich weiss, geht das in zfs gar nicht.
Vermutlich auf Wunsch der NSA. Oder der RIAA. :p
Fehlt nur noch eine Verschlüsselung mit Signatur, die man nicht abschalten kann - dann steht dem (vorhersagbaren) Königreich der DRM-Diktatoren nichts mehr im Wege.

und die Möglichkeit einer Reparatur
Zwischen einer Prüfsumme und einem geeigneten Verfahren zur Fehlerkorrektur liegt eine Menge Speicherplatzbedarf.
Ausserdem ist das ein Mäusemelkerfeature. Wenn Festplatten die Segel streichen, geben sie typischerweise ganze Sektoren und Regionen von Sektoren überhaupt nicht mehr heraus, da hilft ein solches ECC so viel wie ein Glas Wasser gegen einen ausgewachsenen Waldbrand.
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Soweit ich weiss, geht das in zfs gar nicht.
Du meinst das Abschalten der Prüfsummen?

Wenn man in anderen Bereichen des Internets Kommentare von Leuten, die sich beruflich sehr intensiv mit Mac OS X und auch anderen OS auseinandersetzten müssen, Kommentare liest, dass HFS+ nicht gerade den Orden der Unkaputtbarkeit verdient, kommt man ins Grübeln.
Ich selbst habe nun zweimal eine unreparierbar „zerschossene“ HFS+ Partition erlebt. Ich hatte früher seit WNT 4.0 lange Jahre mit NTFS zu tun und kann mich an keinen Fall erinnern wo dies bei einer sonst funktionierenden Harddisk der Fall war. Mit den Reparaturmechanismen auf Commandline von Windows konnte man solche Partitionen zumindest lesen und Daten wegsichern.

PS: Selbst der Tip mit dem anderswo jemand seine HD reparieren konnte, half nichts:
sudo fsck_hfs -d -f -r -y -c 3g /dev/rdisk1s2
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Ich selbst habe nun zweimal eine unreparierbar „zerschossene“ HFS+ Partition erlebt.
Du verwechselst ein generalisiertes Datenmodell mit einer konkreten Implementation.
Wenn dein Browser mal ständig abkackt, dann ist das ja wohl kaum ein Indiz für grundsätzliche Mängel des TCP/IP Protokolls.
Einwände?
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Ich habe praktisch mit der konkreten Implementation zu tun und nicht mit einem Idealwesen.

Der Vergleich mit dem Browser hinkt - da habe ich die Auswahl mehrer Browser.
Habe ich die Auswahl auf der Mac Systempartition andere Filesysteme einzusetzen?

Um es abzuschließen - meiner Meinung täte Apple gut daran im Fall des Filesystems einen großen Schritt nach vorne zu tun!
Andere machens ja vor!
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Ich habe praktisch mit der konkreten Implementation zu tun und nicht mit einem Idealwesen.
Und was versprichst du dir davon, die eine durch eine andere zu ersetzen?
Sind neuere Bugs etwa weniger ärgerlich als die alten?

Andere machens ja vor!
zfs stammt von Sun, und das was die vorgemacht haben, das war ganz besonders der unbedingte Wille, sich mit bedarfslosen Wolkenkuckucksheim-Projekten in die Pleite zu wirtschaften. Mission accomplished.
 

FritzS

Spätblühender Taffetapfe
Registriert
06.04.09
Beiträge
2.805
Und warum wollte dann Apple ZFS implementieren oder gar HFS+ damit ablösen, wenn HFS+ doch so gut ist?

Sun in ihren Bereichen damals gut, in machen Bereichen sogar unschlagbar.
Detto auch Silicon Graphics (SGI) mit ihren Workstations.

Windows und Linux (Serverseitig) + Intel (CPUs) haben denen (leider) die Show gestohlen.

Denke nur an das Profi 3D Konstruktions-Programm CATIA, das früher ausschließlich nur auf Unix Workstations lief.

http://www.3ds.com
https://de.wikipedia.org/wiki/CATIA
 
Zuletzt bearbeitet: