• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Seit Gutenbergs Zeiten haben sich nicht nur Bücher über die ganze Welt verbreitet, sondern Buchstaben und Wörter begleiten uns allumfassend. Selbst moderne Devices mit Sprachsteuerung und Super-KI kommen nicht ohne Buchstaben, Wörter oder Symbole aus. Nicht zuletzt darum ist das Thema das Monats Am Anfang war das Wort ---> Klick

Snow Leopard: Ein GB jetzt tausend MB

pepi

Cellini
Registriert
03.09.05
Beiträge
8.740
Ja, genau das meine ich. Die Berechnung sollte technisch korrekt erfolgen und so wie sie geschichtlich auch immer technisch korrekt, also auf Zweierpotenzen basierend bleiben. Die einzige Anpassung die für eine, so wie bisher durchgängig korrekte Angabe wäre die Anpassung der Einheiten Angabe auf SI Niveau. Im Terminal wird das von Apple seit 10.5 auch schon teilweise so gemacht! Die einzig richtige Konsequenz wäre gewesen dies systemweit für alles einzuführen.

Beispiel:
Code:
$ df -h
Filesystem                                Size   Used  Avail Capacity  Mounted on
/dev/disk0s4                             262Gi  247Gi   14Gi    95%    /

Der momentane Saustall den Snow Leopard hier aufführt ist einfach nur peinlich und unnötig.
Gruß Pepi
 

below

Purpurroter Cousinot
Registriert
08.10.06
Beiträge
2.858
Wäre doch eine gute Idee. Binärpräfixe werden schließlich auch von der IEEE empfohlen.

Offenbar sind wir uns einig, dass ein Kilobyte 1000 Byte sind. 1024 Byte sind ein Kibibyte.

Wenn das Tatsächlich so ist, dann besteht ja nur Uneinigkeit darüber, ob Apple die Angaben mit Binärpräfix (Gibibyte ≜ 2^30 Byte) machen soll, oder mit Dezimalpräfixen (Gigabyte ≜ 10^9 Byte).

Da ist es mir dann wieder etwas egal, solange es richtig ausgezeichnet ist.

Was ich aber nicht verstehe ist folgendes: Der Mac war mal "The Computer for the Rest of Us", also für Leute, die nicht wussten und auch gar nicht wissen wollten, ob ein Computer besser mit 1024 oder 1000 rechnet.

Und die Menschen -- nicht die Entwickler -- arbeiten und denken überwiegend im Dezimalsystem.

Auch wenn ich Programme schreibe, dann möchte ich, dass sich der Computer dem Menschen anpasst -- und nicht umgekehrt. Dieses "Ein Kilobyte waren schon immer 1024 Byte, also Basta" ist aus meiner Sicht genau das: Hier passen wir uns der Technik an.

Alex
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Offenbar sind wir uns einig, dass ein Kilobyte 1000 Byte sind. 1024 Byte sind ein Kibibyte.
Ich bin immer noch der Meinung, dass diese Binärpräfixe Schwachsinn sind.
Als Kompromiss finde ich die Binärpräfixe akzeptabel.

Was ich aber nicht verstehe ist folgendes: Der Mac war mal "The Computer for the Rest of Us", also für Leute, die nicht wussten und auch gar nicht wissen wollten, ob ein Computer besser mit 1024 oder 1000 rechnet.
Braucht "der Rest of us" ja auch nicht unbedingt. Aber das Chaos ist vorprogrammiert, wenn plötzlich Daten "verlorengehen". Die wiederkehrenden Threads, dass Bytes auf der Festplatte fehlen, sprechen da Bände.

Auch wenn ich Programme schreibe, dann möchte ich, dass sich der Computer dem Menschen anpasst -- und nicht umgekehrt. Dieses "Ein Kilobyte waren schon immer 1024 Byte, also Basta" ist aus meiner Sicht genau das: Hier passen wir uns der Technik an.
Na ja, wir passen uns nicht der Technik an, sondern rechnen einfach richtig. Sollen wir als nächstes Pi = 3 definieren, weil sich die Mathematik an den Menschen anpassen muss? Oder G = 10m/s2, weil sich die Physik anpassen muss?
 

karolherbst

Danziger Kant
Registriert
11.05.07
Beiträge
3.878
bin mal gespannt wie es aussieht, wenn man im binärformat rechnet mhhh, rechnet ein normaler Mensch dann
1000110*1100001=11001011000110
oder
1000110=134
1100001=97
134*97=12998
12998=11001011000110
?
Also denkt er doch auch bei den Festplatten weiter im Dezimalsystem, denkt aber trotzdem, dass er im Dualsystem denkt
 

below

Purpurroter Cousinot
Registriert
08.10.06
Beiträge
2.858
Na ja, wir passen uns nicht der Technik an, sondern rechnen einfach richtig. Sollen wir als nächstes Pi = 3 definieren, weil sich die Mathematik an den Menschen anpassen muss? Oder G = 10m/s2, weil sich die Physik anpassen muss?

Mit Verlaub, der Vergleich ist totaler Unfug. π*und g sind Naturkostanten.

Diese Binärrechnerei ist aber nur wirklich sinnvoll, wenn ich z.B. Hexadezimalzahlen verwende: Ein Kibibyte sind 0x400, ein Gibibyte 0x40000000.

Erklär Du mal bitte jemandem, der nichts grossartig mit Computern zu tun hat, warum ein Megabyte 1048576 Byte sind.

Die Dezimalzahlen haben nicht ohne Grund fast auf der ganzen Welt alte und archaische Zählsysteme abgelöst, die auch auf Dingen beruhten, die Leute einmal sinnvoll fanden. Besonders die Briten und Amerikaner waren da ja erfinderisch, was Währung, Gewicht und Längen angeht.

Eine Meile (US) sind 8 Furlong.
Ein Furlong sind 220 Yard.
Ein Yard sind drei Fuss.
Also sind eine Meile 5280 Fuss

Da sind wir doch auch hingegangen und haben gesagt: Nix da, ein Kilometer sind 1000 Meter, und ein Millimeter sind 1/1000 Meter.

Und das ist auch gut so. Es bleibt mir unverständlich -- GERADE als Softwareentwickler -- warum Benutzer weiterhin mit Zweierpotenzen gequält werden müssen. Nur weil es nach weniger aussieht?

Alex
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Mit Verlaub, der Vergleich ist totaler Unfug. π*und g sind Naturkostanten.
Wieso? Im gleichen maße ist 2^10 ein "Naturpräfix". 10^3 ist hingegen bei Computern reiner Schwachfug.

Diese Binärrechnerei ist aber nur wirklich sinnvoll, wenn ich z.B. Hexadezimalzahlen verwende: Ein Kibibyte sind 0x400, ein Gibibyte 0x40000000.
Nun ja, ein Computer verwendet doch gerade Binär- und Hexadezimalsystem. Es ist kein Zufall, dass Arbeitsspeicher heutzutage genau glatte GiB-Größen haben. Ebenfalls bei den SSDs liegt es in der Natur der Sache. So auch bei Blockgrößen, Adressen und und und.
Nur weil ein paar Datenträgerhersteller damals meinten, die könnten einfach alles zu ihrem Vorteil auf den Kopf stellen, soll es jetzt auf einmal anders sein?

Erklär Du mal bitte jemandem, der nichts grossartig mit Computern zu tun hat, warum ein Megabyte 1048576 Byte sind.
Das ist doch nun wirklich keine höhere Mathematik.

Die Dezimalzahlen haben nicht ohne Grund fast auf der ganzen Welt alte und archaische Zählsysteme abgelöst, die auch auf Dingen beruhten, die Leute einmal sinnvoll fanden […]
Und das ist auch gut so. Es bleibt mir unverständlich -- GERADE als Softwareentwickler -- warum Benutzer weiterhin mit Zweierpotenzen gequält werden müssen. Nur weil es nach weniger aussieht?
Die meisten Zählsysteme basierten aber einfach auf einer relativ freien Definition, während beim Computer das Zählsystem technisch bedingt ist.
Gerade als Softwareentwickler sollte man das eigentlich wissen.
 

karolherbst

Danziger Kant
Registriert
11.05.07
Beiträge
3.878
Ich frage mich schon seit geraumer Zeit, warum das umstellen so ein großer Aufwand ist. Würde es nicht reichen, nur und nur allein bei der Anzeige die Werte umzurechnen? Dann rechnet der Computer weiter im Dualsystem, gibt aber die Größen im Dezimalsystem aus?
 

Walli

Blutapfel
Registriert
06.01.06
Beiträge
2.605
Wieso? Im gleichen maße ist 2^10 ein "Naturpräfix". 10^3 ist hingegen bei Computern reiner Schwachfug.
Ebenso wie Dezimal-Präfixe wie 'Kilo' für eine Zweierbasis...

Na ja, wir passen uns nicht der Technik an, sondern rechnen einfach richtig. Sollen wir als nächstes Pi = 3 definieren, weil sich die Mathematik an den Menschen anpassen muss? Oder G = 10m/s2, weil sich die Physik anpassen muss?
Ist doch ähnlich. Wenn ich grad keinen Taschenrechner zur Hand habe und eine Größenordnung brauche ist 3.1415... einfach ungefähr 3 und 9.81... ungefähr 10. Für jemanden, der mal nicht eben im Kopf 1024^2 ausrechnen mag ist 'Mega' ja eine tolle Annäherung gewesen um zu wissen wieviele Bytes man nun hat. Nur irgendwann in Zeiten von Giga- und Tera-Bytes hat diese in den Pionierzeiten geschaffene Sache eben nicht mehr so gut gepasst und man hat sie aus Bequemlichkeit behalten.

Im Ernst: Wollt Ihr die Diskussion wirklich erneut führen? Auf den zahlreichen Seiten des Threads wurde doch vor Wochen schon nichts erreicht in diesem Glaubenskrieg. Es fehlen echt nur noch die Klugscheißer, die der Befürworterfraktion einfach vorwerfen das Binärsystem nicht zu verstehen, selbst wenn diese offensichtlich einen stark Informatik-lastigen Background haben. Wir hatten in diesem Thread wirklich schon genug unschöne Profilierungsversuche, warum also noch einmal kalten Kaffee aufwärmen?
 
Zuletzt bearbeitet:

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Ebenso wie Dezimal-Präfixe wie 'Kilo' für eine Zweierbasis...
Ein Präfix macht noch keine Einheit!
Genausowenig muss eine Buchstabenfolge immer das gleiche Bedeuten. Das deutsche "die" und das englische "die" sind dafür ein gutes Beispiel.

Nur irgendwann in Zeiten von Giga- und Tera-Bytes hat diese in den Pionierzeiten geschaffene Sache eben nicht mehr so gut gepasst und man hat sie aus Bequemlichkeit behalten.
Bequemlichkeit eher nicht.
Die Computer arbeiten immer noch nach den selben Prinzipien wie in den "Pionierzeiten". Daran hat sich bis heute nichts geändert.
Vielmehr noch: Die Entwicklung geht weg von den magnetischen und optischen Medien, hin zu den Flashspeichern - Und deren Größe folgt umso mehr den "Prinzipien der Pionierzeiten".
 

below

Purpurroter Cousinot
Registriert
08.10.06
Beiträge
2.858
Ein Präfix macht noch keine Einheit!
Genausowenig muss eine Buchstabenfolge immer das gleiche Bedeuten. Das deutsche "die" und das englische "die" sind dafür ein gutes Beispiel.

Die Computer arbeiten immer noch nach den selben Prinzipien wie in den "Pionierzeiten". Daran hat sich bis heute nichts geändert.
Vielmehr noch: Die Entwicklung geht weg von den magnetischen und optischen Medien, hin zu den Flashspeichern - Und deren Größe folgt umso mehr den "Prinzipien der Pionierzeiten".

In diesem Thread wurde bisher als einzige Begründung "Ist halt so, war schon immer so" gebracht. Es wird zwar ständig behauptet, "die Computerindustrie" hätte sich darauf geeingt. Belege blieben aber aus.

Das IEEE ist vielleicht die renommierteste Organisation für Informationstechnik, und hat diese Technik seit Pionierzeiten begleitet. Und was für Deutsch der Duden, sind für Informatik die Definitionen der IEEE.

Und diese IEEE definiert den Präfix Kilo als 10^3. Auch für Kilobyte.

Es hat sich bisher niemand getraut, es auszusprechen, aber offensichtlich wird diese Definition hier von einigen in Zweifel gezogen. Für jemanden mit Informatikdiplom mutet das schon ziemlich befremdlich an.

Wer also eine Organisation mit größere Bedeutung nennen kann, die ein Kilobyte als 1024 Byte definiert, der möchte das bitte, bitte -- mit Zucker oben drauf -- posten.

Sonst ist für mich diese Diskussion beendet.

Alex

EDIT: Es gibt sogar eine IEC Norm, also muss es schon ISO oder SI selbst sein.
 
Zuletzt bearbeitet:

karolherbst

Danziger Kant
Registriert
11.05.07
Beiträge
3.878
geht es euch jetzt um die Nennung oder darum wie ein Computer arbeiten sollte?
below, wenn du sagst, dass man 1024 byte nicht kilobyte sondern kibibyte nennen sollte, dann haste auch Recht mit dem IEEE und wie auch immer.
Wenn aber bananenbieger sagt, dass die Computer weiterhin und schon immer und wie auch immer, nach dem Binärsystem arbeiten, dann hat er auch damit Recht.
Es ist auch dem Anwender an sich egal ob da jetzt 500GB oder 500GiB stehen. Beim letzteren würde er sich nur erstmal wundern, dass da ein i ist.
Ich wundere mich nur, warum durch diese Einstellung bestimmte Fehlfunktionen auftreten, weil der Mac ja so oder so im Binärsystem arbeitet. Aber vlt hat das auch Gründe, die ich nicht kenne, irgendwelche tief gehende Veränderungen oder wie auch immer.
 

below

Purpurroter Cousinot
Registriert
08.10.06
Beiträge
2.858
geht es euch jetzt um die Nennung oder darum wie ein Computer arbeiten sollte?

Mir geht es darum, das hier mit Verve behauptet wird, 1000 Byte = 1 Kilobyte sei "falsch", und 1024 Byte = 1 Kilobyte sei "richtig".

Informatiker sind ja einfach strukturierte Menschen, und wenn IEEE und IEC sagen, 1 Kilobyte = 1000 Byte, dann ist das für uns die Wahrheit.
Genauso gut könnte ich an der Definition für einen Meter zweifeln.

Alex
 

karolherbst

Danziger Kant
Registriert
11.05.07
Beiträge
3.878
naja, ich als Mathe-LKler muss dir da wohl Recht geben, aber der Informatiker in mir sagt: ist doch egal wie mans nennt :p
Ne es geht ja eigentlich darum, dass jeder darunter das gleiche versteht. Ich würde es auch begrüßen, wenn man das alles richtig nennt, darum verstehe ich nicht, warum man nicht einfach das i dort einsetzt, so viel Tinte und Strom kostet das jetzt auch nicht... (meines Erachtens eine bessere Lösung, als gleich die ganzen Größen zu verändern, deswegen muss man ja auch umdenken, und was früher 5MB war wird heute keine 5MB mehr sein...)
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
wenn IEEE und IEC sagen, 1 Kilobyte = 1000 Byte, dann ist das für uns die Wahrheit.
Bei IEEE, IEC und ISO sitzen auch nur Menschen.

Genauso gut könnte ich an der Definition für einen Meter zweifeln.
Einen Meter kann man definieren, wie man will. Das ist eine der wahllos festgelegten Grundeinheiten des SI-Systems - Wobei z.B. Meter und Kilogramm zwar wahllos, aber immerhin sinnvoll definiert wurden.
Dagegen sind z.B. Hertz und Bit nicht wahllos festgelegt worden. Eine andere Definition wäre schlichtweg unlogisch (wohingegen es nicht wesentlich ist, ob ein Meter jetzt 100cm oder 653,48cm ist)
 

below

Purpurroter Cousinot
Registriert
08.10.06
Beiträge
2.858
Bei IEEE, IEC und ISO sitzen auch nur Menschen.

Damit möchtest Du mir sagen, dass für Dich nur Masseinheiten aus der Bibel gültig sind? :innocent:

Gerade in der Technik sind Standards notwendig und sinnvoll, damit wir über das selbe reden, und informationen Austauschen können. IEEE, IEC und ISO sind nun mal die grossen Standardbodies, und für mich in diesem Punkt "der Richter".

Wenn Apple also so rechnet, wie IEEE und IEC vorgeben, dann kann ich daran überhaupt nichts schlechtes finden. Bei allem anderen erwarten wir ja auch, das die Standards eingehalten werden.

Alex
 

skappley

Aargauer Weinapfel
Registriert
09.06.07
Beiträge
745
bin mal gespannt wie es aussieht, wenn man im binärformat rechnet mhhh, rechnet ein normaler Mensch dann
1000110*1100001=11001011000110
oder
1000110=134
1100001=97
134*97=12998
12998=11001011000110
?
Also denkt er doch auch bei den Festplatten weiter im Dezimalsystem, denkt aber trotzdem, dass er im Dualsystem denkt

Ein "normaler" Mensch rechnet im Binärsystem so:

Code:
1000110 * 1100001
-----------------
1000110
 1000110
  00001000110
=============
1101010000110

So wie du es geschrieben hast (bei deiner Rechnung hat sich übrigens ein Fehler eingeschlichen) rechnest du ja nicht im Binärsystem, sondern rechnest ins Dezimalsystem um, machst die Multiplikation im Dezimalsystem, und rechnest am Ende wieder ins Binärsystem zurück.

Die Diskussion hier halte ich übrigens für interessant. Ich bin mir bewusst, dass kilo für 1000 steht und diese Bezeichnung deswegen seit jeher in der Informatik falsch gebraucht wurde. Bytes in 1024er Blöcke zusammen zu fassen mag zwar eine gute Idee gewesen sein, doch hätte man dafür von Anfang an nie die Bezeichnung kilo verwenden sollen.

Jetzt ist die Situation natürlich unangenehm. Seit Jahrzehnten war 1 kilo Byte = 1024 Byte, man hat sich daran gewöhnt.

Mir persönlich ist es eigentlich recht egal wie die Einheiten angezeigt werden. Nur einheitlich sollte es sein! Wenn ich Dateigrößen vergleichen will, dann schaue ich ohnehin auf die Bytes - normalerweise kommt soetwas aber ziemlich selten vor. Und ansonsten? Tja, die Angabe von Datenmengen im System oder auf Webpages ist für mich eher ein Richtwert um z.B. abschätzen zu können, ob ich eine Datei aus dem Internet laden möchte oder nicht, oder ob ich sie auf eine CD brennen kann oder nicht. Wieviele Bytes die Datei ganz genau hat, interessiert mich in diesen Fällen eigentlich nicht.

Wenn SL die Größen jetzt plötzlich anders anzeigt als gewohnt (auch wenn die Anzeige damit richtig ist), halte ich das eher für verwirrend und nicht zielführend. Sicher, man kann sagen, wenn alle Betriebssysteme die Anzeigen korrigieren, dann wird es irgendwann in Zukunft soweit sein, dass großteils 1 kilo Byte gleich 1000 Byte sein wird. Sicher sein kann man sich bei solchen Angaben dann aber nie... und das ist das Hauptproblem - eine Mischung zweier Systeme. So eine Umstellung könnte nie wirklich zu 100% erfolgen, irgendwo wird man immer wieder auf alte Größenangaben stoßen.
 

MacMark

Jakob Lebel
Registriert
01.01.05
Beiträge
4.874
Schaut mal:
Code:
Miami:~ macmark$ df -lh
Filesystem     Size   Used  Avail Capacity  Mounted on
/dev/disk0s2  298Gi  119Gi  179Gi    40%    /
Miami:~ macmark$ df -lH
Filesystem     Size   Used  Avail Capacity  Mounted on
/dev/disk0s2   320G   127G   192G    40%    /
 

karolherbst

Danziger Kant
Registriert
11.05.07
Beiträge
3.878
Unter Leopard... mhhhh... woher kommen nun die Fehlfunktionen?!?
Code:
karol-herbsts-power-mac-g4:~ karolherbst$ df -lh
Filesystem      Size   Used  Avail Capacity  Mounted on
/dev/disk1s10  115Gi   75Gi   39Gi    66%    /
/dev/disk0s3   466Gi   90Gi  375Gi    20%    /Volumes/Medien
/dev/disk2s3    51Gi   33Gi   17Gi    66%    /Volumes/Back Up
karol-herbsts-power-mac-g4:~ karolherbst$ df -lH
Filesystem      Size   Used  Avail Capacity  Mounted on
/dev/disk1s10   123G    81G    42G    66%    /
/dev/disk0s3    500G    97G   403G    20%    /Volumes/Medien
/dev/disk2s3     54G    36G    19G    66%    /Volumes/Back Up

EDIT: Ich wette, unter Panther ist das auch so :D ich glaube ich schmeiße meinen alten G3 mal an...
 

skappley

Aargauer Weinapfel
Registriert
09.06.07
Beiträge
745
EDIT: Ich wette, unter Panther ist das auch so :D ich glaube ich schmeiße meinen alten G3 mal an...

Sicher wird das auch im Panther so sein... Fehlfunktion gibt es hier keine. Es werden einfach zwei unterschiedliche Einheiten bei den Anzeigen verwendet, genau so wie es laut Dokumentation sein soll:

Code:
     -H      "Human-readable" output.  Use unit suffixes: Byte, Kilobyte,
             Megabyte, Gigabyte, Terabyte and Petabyte in order to reduce the
             number of digits to three or less using base 10 for sizes.

     -h      "Human-readable" output.  Use unit suffixes: Byte, Kilobyte,
             Megabyte, Gigabyte, Terabyte and Petabyte in order to reduce the
             number of digits to three or less using base 2 for sizes.
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Damit möchtest Du mir sagen, dass für Dich nur Masseinheiten aus der Bibel gültig sind? :innocent:
Nope. Damit möchte ich nur sagen, dass gerade von Normungsorganen schon so mancher Schwachsinn veranstaltet wurde.
Auf das Office-Open-XML-Debakel habe ich ja bereits hingewiesen.

Gerade in der Technik sind Standards notwendig und sinnvoll, damit wir über das selbe reden, und informationen Austauschen können. IEEE, IEC und ISO sind nun mal die grossen Standardbodies, und für mich in diesem Punkt "der Richter".
Leider haben diese Institutionen nur für noch mehr Verwirrung gesorgt und jetzt zwei Parallelwelten erschaffen.
Zeit, um in Berufung zu gehen.

Wenn Apple also so rechnet, wie IEEE und IEC vorgeben, dann kann ich daran überhaupt nichts schlechtes finden. Bei allem anderen erwarten wir ja auch, das die Standards eingehalten werden.
Und wieso verwendet dann Apple die Dezimalpräfixe, statt die ebenfalls voll standardisierten Binärpräfixe?