pete schrieb:
...habe ich über Unix folgendes in einer Weiterbildung für Laien gelernt:
Ja, das muss was für Laien gewesen sein...
Nämlich dass es im Grunde überhaupt nicht direkt auf Festplatte arbeitet, sondern alle benötigten Daten ins RAM holt und die Programme nur auf das RAM zugreifen.
Das nennt sich Diskcache, bei Apple "Unified Buffer Cache" genannt.
Das bedeutet nur dass Dateien nicht wiederholt von der HD eingelesen werden müssen,... ...solange sie sich nicht verändert haben!
Ab und zu, wenn es nötig ist, werden geänderte Daten aus dem RAM wieder zurück auf die Platte geschrieben. Wobei es noch eine strikte Unterteilung zwischen User-RAM und System-RAM gibt.
Na, da gibt es schon noch ein paar Unterscheidungen mehr... anyway.
Deswegen ist viel RAM gut für Unix,
Deswegen ist RAM gut für *jedes* OS. Solche Techniken gab es auch schon unter DOS 3.1. (als sog. "TSR-Programm")
und Fragmentierung völlig irrelevant für Unix, weil selbst damals die Festplatten schnell genug waren.
1) Das "Problem" Defragmentierung bei Festplatten wurde von je her aufs absurdeste dramatisiert, um Computerlaien viel teure Software verkaufen zu können.
Der Grad der Wichtigkeit liegt jedoch generell etwa so hoch wie die Frage, ob man ein Auto "nur waschen" oder aber "waschen und wachsen" sollte, um Benzin zu sparen.
(Bei CD-ROMs und anderen optischen Medien - ja, *da* knallt das wirklich rein...)
2) Ob Fragmentierung überhaupt auftritt und wie stark sie sich dann auswirkt, hat mit dem verwendeten OS nichts zu tun. Das entscheidet das verwendete Dateisystem und die Treibersoftware, die dazu gehört.
Und Apples HFS war da schon immer recht unempfindlich dagegen, das modernere HFS+ mit den aktuellen Treibern von OS X sowieso.
FAT-Dateisysteme, wie sie von Windows bis Version 98 verwendet wurden, sind dagegen dafür ziemlich anfällig gewesen.
3) Defragmentierungsprogramme sind ein endloser Treppenwitz. Der Versuch, ein "Journaled" Dateisystem effektiv und nachhaltig defragmentieren zu wollen, gleicht etwa der Bemühung, Wasser den Berg hinauf zu schaufeln.
Mal ganz abgesehen von der Tatsache, dass bei heutigen Festplatten mit IDE-Logik (ATA, S-ATA) sowieso nicht die geringste Möglichkeit besteht herauszufinden, in welcher Reihenfolge die Sektoren eines Volumes *wirklich* angeordnet sind. Was nach rein logischen Zahlen angeordnet aussieht wie säuberlich aufgeräumt, kann auf der Speicherplatte letztendlich real der grösste Saustall sein - und umgekehrt.
(Und das ist es meistens auch.) Das ganze ist so aberwitzig sinnlos wie sich im Sturm zu kämmen.