weebee
Gast
Ich habe gerade einen Thread gelesen, in dem es darum ging, dass iTunes wohl bei großen Datenbeständen sehr langsam wird und öfters den Beachball zeigt.
In einem anderen Thread geht's um die gleiche Problematik, nur das dort iPhoto das betreffenden Programm ist.
Ich selbst habe die leidliche Erfahrung machen müssen, dass nicht mal eine Datenbank-Software (iView) in der Lage ist, Datenbeständen mit mehreren zehntausend Dateien flüssig zu verwalten.
Auch der Finder kommt mit großen Datenmengen anscheinend nur schwerlich klar. Alleine das Öffnen eines Ordners mit vielen Dateien dauert schon einen Moment, wenn man dann einige oder alle markieren will, kann selbst das schon zum Problem werden. Beim Ziehen auf das Ziel muss dann sogar einen Moment die Maustaste festhalten, damit der Finder überhaupt mitbekommt, wo die Sachen hinsollen.
Alle Beispiele betreffen unterschiedliche Programme. Insofern kann es ja eigentlich kein OSX-Problem sein. Auffällig ist, dass die Probleme anscheinend exponentiell mit der Datenmenge ansteigen. Also wenn man mit beispielsweise 10.000 Dateien noch klar kommt, dauert's bei 20.000 nicht doppelt, sondern überproportional länger. 32.000 scheint bei allen Programmen eine magischen Grenze zu sein darüber wird's dann nochmal langsamer.
Wer sich mal einen Spass machen will, der kann mal 100.000 Dateien erzeugen (Finder > Duplizieren). Solche Datenmengen sind unter OSX praktisch nicht mehr handhabbar. (Im Terminal läuft hingegen alles superschnell.) Sicherlich ist es nicht unbedingt sinnvoll, mit diesen Datenmengen umzugehen; andererseits könnte man natürlich auch fragen »wozu haben wir die schnellen Rechner?«. Und das unter OSX liegende Darwin/BSD hat damit ja auch keine Probleme; Linux-Server zeigen ja auch, dass es prinzipiell gehen kann.
Ist das ein Problem irgendeines (nicht optimierten) Frameworks, das alle Programme nutzen?
In einem anderen Thread geht's um die gleiche Problematik, nur das dort iPhoto das betreffenden Programm ist.
Ich selbst habe die leidliche Erfahrung machen müssen, dass nicht mal eine Datenbank-Software (iView) in der Lage ist, Datenbeständen mit mehreren zehntausend Dateien flüssig zu verwalten.
Auch der Finder kommt mit großen Datenmengen anscheinend nur schwerlich klar. Alleine das Öffnen eines Ordners mit vielen Dateien dauert schon einen Moment, wenn man dann einige oder alle markieren will, kann selbst das schon zum Problem werden. Beim Ziehen auf das Ziel muss dann sogar einen Moment die Maustaste festhalten, damit der Finder überhaupt mitbekommt, wo die Sachen hinsollen.
Alle Beispiele betreffen unterschiedliche Programme. Insofern kann es ja eigentlich kein OSX-Problem sein. Auffällig ist, dass die Probleme anscheinend exponentiell mit der Datenmenge ansteigen. Also wenn man mit beispielsweise 10.000 Dateien noch klar kommt, dauert's bei 20.000 nicht doppelt, sondern überproportional länger. 32.000 scheint bei allen Programmen eine magischen Grenze zu sein darüber wird's dann nochmal langsamer.
Wer sich mal einen Spass machen will, der kann mal 100.000 Dateien erzeugen (Finder > Duplizieren). Solche Datenmengen sind unter OSX praktisch nicht mehr handhabbar. (Im Terminal läuft hingegen alles superschnell.) Sicherlich ist es nicht unbedingt sinnvoll, mit diesen Datenmengen umzugehen; andererseits könnte man natürlich auch fragen »wozu haben wir die schnellen Rechner?«. Und das unter OSX liegende Darwin/BSD hat damit ja auch keine Probleme; Linux-Server zeigen ja auch, dass es prinzipiell gehen kann.
Ist das ein Problem irgendeines (nicht optimierten) Frameworks, das alle Programme nutzen?