1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

was ist denn eigentlich aus 64 Bit geworden ..?

Dieses Thema im Forum "Gerüchteküche" wurde erstellt von frabo, 15.01.06.

  1. frabo

    frabo Gast

    tja, kein Wort über die Akkulaufzeit, der neuen MacBooks (pro)
    die Schnittstellenreduzierung ist drastisch, das wird nicht nur mich etwas abschrecken...
    Und vor allem, was irgendwie alle vergerssen, ... !! 2006 ist das Jahr von 64 Bit ! Apple war, ist mit den G5 Rechnern der erste Schritt dort hin gelungen, und sie hatten damit einen enormen Vorsprung. Und nun ??? Der "neue" iMac ist NICHT ! 64 Bit !!! Da Intel noch keinen 64Bit tauglichen Prozessor hat. Also, wie ich finde ein enormer RÜCKSCHRITT !!
    Und die MacBooks(pro) hätte ich mir auch eher mit 64 Bit vorstellen können. Erst dann hätten sie einen echten Vorteil zu den alten PB's.
    AMD hat übrigens schon seit geraumer Zeit auch in Laptops 64 Bit Prozessoren, und wird Mitte des Jahres auch eine dual Variante rausbringen. Vielleicht läuft dann ja schon OSX auf allen Rechnern... hehe

    fb

    ;)
     
  2. BillyBlue

    BillyBlue Adams Apfel

    Dabei seit:
    22.08.05
    Beiträge:
    517
    Ja genau das war auch mein erster Gedanke, als ich das MacBook bzw. den iMac sah - echt schade...

    Aber letzten Endes zählt nur, dass die neuen Geräte mehr Speed bringen - ob die das nun per 32 oder 64 Bit realisieren, sollte für uns keine Rolle spielen.
     
  3. ma.buso

    ma.buso Châtaigne du Léman

    Dabei seit:
    16.04.05
    Beiträge:
    824
    nunja,

    für die powermacs sollte intel ja dann doch was mit 64 bit in petto haben, denn sonst kann man da garnicht mehr so viel ram wie üblich einbauen - oder?
     
  4. ich

    ich Jonathan

    Dabei seit:
    10.12.05
    Beiträge:
    82
    Hey ma.buso was hat 32 bzw 64 bit Prozessor mit der RAM groesse zu schaffen ?

    ich, frage mich das.
     
  5. mullzk

    mullzk Linsenhofener Sämling

    Dabei seit:
    04.01.04
    Beiträge:
    2.529
    jaja, die gute alte 64bit-diskussion.... welche mac-software nutzt unterdessen eigentlich den grossen addressraum? keine? ahhh....

    64bit-anwendungen gibt es sehr wenige, hauptsächlich im forschungsbereich. und dort leidet man meist auch nicht sonderlich unter switchs.... und der g5-quad ist notfalls immer noch ein sehr kompetitiver rechner...

    man kann durchaus auch bei einem nicht-64bit-prozessor mehr als 4GB RAM drinne haben. ein einzelner thread kann dann nicht den ganzen bereich addressieren, aber in den meisten fällen ist dies auch nicht nötig, insb. dank aufsplitten von programmen und prozessen in mehrere threads. dies betrifft insbesondere auch das betriebssystem.
    neben dem grossen addressraum sind 64bit-prozessoren eigentlich nicht von vorteil (ausser noch in ein paar extrem seltenen konstellationen), insb. wird ein 64bit-rechner nicht wegen der breite schneller. der wechsel von 32 auf 64bit kann nicht mit dem wechsel 16 auf 32bit verglichen werden.

    ich will den g5 nicht schlecht reden, es ist eine sehr schöne cpu und auch mit sehr ansprechender performance, aber die 64bit-funktionalität ist nicht der grosse verlust...
     
  6. macbiber

    macbiber Gast

    64-Bit kommt dann mit dem Merom - vermutlich Ende des Jahres. Und die Mac sind dann WIEDER 64-Bit Rechner.

    Allerdings dürfte wohl bisher kaum einer der hier anwesenden von den 64-Bit des G5 tatsächlich profitiert haben...
    Auf OSX hat 64-Bit bisher eigentlich gar nix gebracht.

    Aber egal - es ist halt wie bei den Autos....Mehr PS ist einfach besser.:-D

    64-Bit bringt erst was wenn Hardware,BS und die Apps das nutzen - das wird noch dauern.
     
  7. Phil o'Soph

    Phil o'Soph Prinzenapfel

    Dabei seit:
    04.08.05
    Beiträge:
    542
    Für den normalen Anwender beinhaltet ein 32-Bit-Dual Core-Rechner mehr Vorteile, als ein Rechner mit einer Single Core 64 Bit. AMD liefert nur deswegen alle CPUs als 64 Bit aus, weil sie es halt können und sich die Kosten für 2 Hauptproduktlinien (32 Bit / 64 Bit) sparen wollen.

    Warum Dual Core mehr Vorteile als 64 Bit hat? Anwendungen benutzen "ihre" Prozessoren. Auch bei einem leistungsfähigen 32-Bit-Prozessor der 10 GHz-Klasse kann es vorkommen, dass die Musik, die sich ein Haushaltsmitglied in einem Raum anhört und die vom Rechner wiedergegeben wird, aussetzt, während ein anderes Haushaltsmitglied imselben Raum seine Videos schneidet. Sowas gehört bei Dual Core System in der Regel der Vergangenheit an. Die Kiddies können die eingebaute TV-Karte malträtieren, die Frau über das Internet telefonieren und der Mann die Fotosammlung in Ordnung bringen, ohne dass es zu nennenswerten Performanceverlusten kommt.

    von 64 Bit werden die meisten Anwender erst in einigen Jahren profitieren. Nämlich dann, wenn Anwendungen nicht nur auf HD-DVD ausgeliefert, sondern den Speicherplatz auch nutzen und einen entsprechend hohen Speicherbedarf haben. Das wird wohl noch etwas dauern, aber auch kommen -- früher oder später.

    Phil o'Soph
     
  8. commander

    commander Baldwins roter Pepping

    Dabei seit:
    25.02.04
    Beiträge:
    3.210
    Apple hat es ja nicht mal geschafft, die 64bittigkeit für normale Desktopapplikationen unter die Haube zu bringen. Soll heissen: Eine Applikation mit GUI (graphical User Interface) oder kurz: wo ihr grad drauf rumklickt, kann !nicht! 64bittig sein - sie muss 32 bittig sein, etwas anderes wird von Tiger nicht unterstützt. ??? ???. Das habe ich auch gedacht.

    Es ist allerdings möglich, dass eine 32bittige grafische Anwendung mit einer 64bittigen, die im Hintergrund läuft, kommuniziert und die Befehle/Ergebnisse quasi hin- und herschiebt.

    Letztlich ist davon aber bisher noch so gut wie kein Gebrauch gemacht worden, denn ausser des größeren Adressraumes bringen 64 Bit nur in Ausnahmefällen was.

    Selbst dann ist es zweifelhaft, bzw. wird es noch Jahre dauern bis eine Applikation den Anspruch hat, z.B. 4 Terrabyte RAM zu reservieren ;).
    Da man bereits mit 32 Bit sehr sehr große Zahlen (Integer und Long) in guter Genauigkeit (Floats und Doubles) darstellen kann, ist es unwahrscheinlich, dass es wirklich notwendig wird, für Alltagsapplikationen diese Beschränkungen mit 64 Bit aufzubohren.


    Gruß,

    .commander
     
  9. Gunnar

    Gunnar Baldwins roter Pepping

    Dabei seit:
    27.12.03
    Beiträge:
    3.215
    Ab wann wird denn 64 Bit richtig einsetzbar sein? Es wurde doch immer propagiert 64 Bit sei schön und toll. Ein normaler Anwender braucht doch nur 32 Bit. Oder?

    Dann würde es ja bis in alle Ewigkeit nur 32 Bit Rechner geben. Sozusagen

    Gruss
    Gunnar
     
  10. macbiber

    macbiber Gast

    Ja - und um noch mehr Öl ins Feuer zu giessen - der Finder ist noch immer carbon....:-D
     
  11. suspects

    suspects Gast

    bitte ein bit!

    sorry musste sein!:eek:
     
  12. Steckepferd

    Steckepferd Normande

    Dabei seit:
    01.11.04
    Beiträge:
    573
    Was bedeutet das mit den Bits eigentlich alles??

    16, 32, 64, ich versteh nur Bahnhof. Kann mir das jemand vielleicht grundlegend erklären?? Danke
     
  13. commander

    commander Baldwins roter Pepping

    Dabei seit:
    25.02.04
    Beiträge:
    3.210
    Also, um es sehr zu reduzieren:

    Ein Prozessor mit 8 Bit Datebreite (6502, mein Einstiegsprozzi ;)) kann maximal Daten in einer Breite von 16 Bit erfassen. Dazu verwendet er einfach 2 mal 8 Bit. Ein Bit kannst Du Dir als Schalter vorstellen, der ein oder aus sein kann. Bei 8 Bit schaut das so aus:

    ooooooo

    Das sind acht Schalter. Im Moment sind alle aus. Falls einer an sein sollte, werde ich das mit einem x markieren:

    oooooox

    Der erste Schalter von rechts ist an.

    Nun kommt der Trick: jeder dieser Schalter hat verschiedene Werte, die 2er Potenzen! Warum? Einfach deshalb, weil es sehr schwierig ist, mit Strom andere Daten als 'EIN' = Strom vorhanden und 'AUS' = kein Strom vorhanden zu übertragen,. Es gibt einfach keine sicheren Zwischenwerte, wie : es ist halb soviel Strom vorhanden, oder gar: es ist 17 % Strom vorhanden. Das wird bei steigender Leitungslänge immer unzuverlässiger.

    Deshalb hat man gesagt: Wir übertragen nur EIN und AUS. Deshalb spricht man auch von einem binären Zahlensystem: BI heißt zwei und soll sagen: es gibt nur 2 Zustände, EIN und AUS.

    Um damit aber auch große Zahlen übertragen zu können, gibt man (wie in jedem anderen Zahlensystem auch) der Stelle, an der ein EIN oder AUS vorkommen kann, verschiedene Wertgigkeiten (Ist beim Dezimalsystem genauso: eine eins hinterm Komma bedeutet ja auch was anderes als eine eins der dann 9 Nullen folgen, oder?)

    Und beim binären Zahlsystem nimmt man eben die Zahl 2 als Grundlage und sagt: jede Stelle, an dem man ein Bit ein oder auschalten kann, hat einen Potenzwert von zwei.

    Diese sind: 1, 2, 4, 8, 16, 32, 64, 28, 256, 512, 1024, 2048, 4096, 8192 usw, also immer mal 2 nehmen

    Also: ein

    ooooooox bedeutet die Zahl eins (= 2hoch0), ein
    xooooooo bedeutet die Zahl 128 (= 2hoch7)

    Informatiker zählen immer von 0 an ;)

    und so setzt man die Zahlen zusammen:

    oooooxxx = (2hoch0 = 1) plus (2hoch1 = 2) plus (2hoch2 = 4) Ergebniss: 7

    Und dann wird Dir auch klar dass man mit 64 Bits unglaublich große Zahlen darstellen kann:

    oooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooo

    Ne Menge Bits, oda? Und Prozzis nehmen das im Doppelpack, 32 * 2 = 64 oder 64 * 2 = 128, um Zahlen darzustellen. Das ist dann ne richtig große Menga an Bits und dementsprechen auch eine astronomische Zahl, die man damit darstellen kann.

    Gruß,

    .commander
     
    #13 commander, 16.01.06
    Zuletzt bearbeitet: 16.01.06
    Nathea und mullzk gefällt das.
  14. mullzk

    mullzk Linsenhofener Sämling

    Dabei seit:
    04.01.04
    Beiträge:
    2.529
    boah, auf diesen sensationellen artikel zu bits versuche ich noch kurz, etwas kurz zur bedeutung der bit-breite in prozessoren zu sagen (insb. für die frage von ich, was denn die 64bit mit RAM zu tun haben sollen):
    an alle, die von rechnerarchitektur ein klein wenig verstehen: ich weiss dass das folgende übelst vereinfacht ist, zT in dieser Form sogar falsch, auch von der historischen reihenfolge. keine angst, ich weiss auch, wie es genauer geht, korrigiert mich bitte nur, wenn etwas dadurch verständlicher wird

    eine der häufigsten und wichtigsten funktionen einer cpu ist das ablegen von werten im RAM. eingaben, ausgaben, zwischenresultate, andauernd legt die CPU etwas im RAM ab. ein teil davon wird zwar im cache zwischengelagert, aber davon merkt die cpu normalerweise nichts, sie schmeisst einfach immerzu daten in den Arbeitsspeicher und holt sie dort auch wieder heraus.

    will ein programm, dass die cpu etwas aus dem arbeitsspeicher liest oder dorthin schreibt, muss es ein maschinen-code-befehl abgeben. dieser ist meist im Stil "Bewege [einen bestimmten Wert] an [eine bestimmte adresse im RAM].
    der wesentliche punkt ist nun die Adresse im RAM. Wenn die CPU etwas im RAM ablegen will, wie findet sie es dann wieder? ganz einfach: in dem jedes bit im RAM durchnummeriert wird, und die Nummer dieses RAM-Blocks bestandteil des befehls ist. eben die speicher-adresse.

    nun erinnere dich an den beitrag von commander: mit 16 stellen kann man sehr viel grössere zahlen darstellen als mit 8 stellen. wenn nun nur 8 stellen aufs mal verarbeiten kann, kannst du nichts an die speicheradresse 500 senden, denn mit 8 stellen kannst du nur den speicherblock 0-256 adressieren.

    was kann man da machen? der erste schritt ist, nicht jedes bit einzeln durchzunummerieren. wenn der prozessor mit 8 bit rechnet, kann man davon ausgehen, dass die meisten werte, die er abspeichern will, auch 8 bit umfassen (halt allenfalls nullen voranstellen). das ermöglicht nun, nur jede 8 stelle aufzunummerieren; der befehl "speichere an RAM-Block 2" heisst nun nicht mehr, dass der Wert in das 2.bit und folgend geschrieben werden soll, sondern eben in das 9. bis 16. bit...
    als nächsten schritt kann man diese 8bit-blöcke zusammenfassen, immer in einen tieferen und in einen höheren. der befehl "speichere in den untere teil von RAM-Block 2" dass der wert in den bereich 17-24 geschrieben werden soll, der obere teil sind dann die bits 25-32

    ok, das scheint fürs erste ausgereizt. man kann zwar noch weitere unterteilungen machen, aber irgendwann gibt es zuviele befehle, oder die blöcke werden zu gross, um auch noch kleine zahlen halbwegs effizient abzuspeichern.

    nächste idee: man segmentiert. auf aktuellen betriebssystemen laufen ja bekanntlich mehrere programme gleichzeitig, die cpu wechselt alle paar millionstelsekunden den sogenannten kontext. nun will man ja nicht, dass die daten, die programm a vor ein paar rechenschritten gespeichert hat, ein paar tausendstelsekunden später von programm b überschrieben werden - sinnvoller ist es, man vergibt je einen eigenen adressbereich.

    sagen wir mal, programm a habe den adressbereich 0-255, b liegt auf 256-511. wenn nun die CPU den kontext von a nach b wechselt, teilt sie einer instanz beim RAM mit, dass in der folge sämtliche anfragen für den zweiten bereich gelten werden. damit kann nun wesentlich mehr ram tatsächlich benutzt werden, vor allem, wenn sich programme in unterprogramme unterteilen lassen, die je einen eigenen kontext und damit auch einen eigenen speicherbereich haben (das sind dann u.a. die threads).
    wichtig ist bei diesem system nur, dass es dann immer noch einen bereich gibt, wo programme und vor allem threads (die zum selben programm gehören) miteinander daten austauschen können, dies ist dann der shared memory.

    aber irgendwie ist auch dies nicht so ganz befriedigend. auch wenn mit dem überspringen von adressen mit 8 bit 512 byte abgelegt werden können, und mehrere programme eigene adressblöcke haben, irgendwo gibt es grenzen. zB, dass ein programm nur mit 512 bytes arbeiten kann, was ganz offensichtlich zu wenig ist, zB für photoshop, wo ein einzelnes bild ja mehrere millionen bytes umfasst. und irgendwie muss die cpu ja auch den kontext benennen können, und wenn sie nur 8bit als parameter für ihre befehle zur verfügung hat, sind beim besten willen nicht mehr als 256 solche bereiche möglich. 256*512: selbst in dieser grob vereinfachten umgebung kann nicht mehr als 128 kilo-byte angesprochen werden. irgendwie muss da etwas anderes her.

    das einfachste ist in diesem fall natürlich, dass man der cpu beibringt, auch befehls-argumente mit mehr als 8 stellen verarbeiten zu können. und weil die 2er-reihe in der informatik so viel sinn ergibt, war die nächste cpu-generation eben die 16bit-prozis (8086-286 von intel).
    mit 16 bit, kann eine CPU sage und schreibe 65536 adressen ansprechen. boaaah. mit einigem tweaking und einem extrem fortschrittlichen betriebssystem wie MS-DOS konnte man mit diesen 65536 Adressen ganze 640 kBit ansprechen. es gibt leute die waren sich völlig sicher, dass niemand jemals mehr brauchen würde.
    damit hatten sie auch recht, bis es dann etwas graphischer wurde. wenn du einen bildschirm mit 640*480 pixel in 8 farben ansprechen willst, brauchst du halt einfach 2400 kbit. nur um jedes einzelne pixel ansprechen zu können, mit noch fast keinen farben. mit einer scheissauflösung. ohne überhaupt auch nur eine einzige nicht-grafik-variable im ram abgelegt zu haben. games und graphische oberflächen waren denn auch die wesentlichen triebfedern, die an der 640kbit-grenze genagt haben; falls du erfahrungen aus den DOS-zeiten hast, erinnerst du dich vielleicht noch an die bes*****nen tools wie XMS, ohne die kein game lief. da ging es nur darum, die cpu ein klein wenig zu bescheissen um eben die höheren adressbereiche ansprechen zu können.

    enter 32bit-computing, namentlich intels 386er resp. schon einige zeit zuvor: 68k von motorola (dieser sagenumwobene chip war auch ein wesentlicher grund, weshalb apple 5 jahre vor microsoft in der lage war mehr als nur gerade buchstaben an den monitor zu zeichnen...). 32bit ermöglicht es, dass ein Programm ganze 4 gigabyte anspricht. Das war 1984 mehr als man sich vorstellen konnte. mehr als man platz auf der festplatte hatte, und 4 gigabyte RAM wären wirklich schlicht unerschwinglich teuer gewesen.
    aber nicht nur 4GB pro Prozess: der 68k und der 386 brachten auch die oben genannte Segmentierung direkt auf die CPU, ohne jegliche Cheats and Tricks (Stichwort: Memory Management Unit, MMU).


    nun ist es aber so, dass 4GB unterdessen keine speziell grosse datenmenge mehr ist. jeder anständige film ist grösser (und die werden ja alle am computer erstellt), ja sogar mit photoshop ist man bald einmal auf 4GB angelangt. und grosse datenbanken in firmen befinden sich schon seit längerem im terabyte-bereich, und davon möchte man einfach nicht nur 4GB im RAM halten... von wissenschaftlichen rechnungen mit den von commander bereits erwähnte wirklich grossen zahlen ganz zu schweigen...

    mit 64bit ist es nun möglich, dass ein einzelner prozess sage und schreibe 17'179'869'184 gigabytes (16 exabytes) ansprechen kann. zum vergleich: laut wikipedia entsprichen alle daten, die irgendwo auf der welt ausgedruckt zur verfügung stehen, schätzungsweise ungefähr 5 exabyte.
    es braucht seeeeehr viel phantasie um sich vorzustellen, wie man eine derart riesige datenmenge füllen könnte, erst recht noch innerhalb von vernünftiger zeit. aber es ist durchaus anzunehmen, dass für gewisse sachen auch das irgendeinmal nicht mehr reichen wird.



    wie sehr schon die 4GB der 32bit-rechner, wie wir sie nun wieder mit den neuen intel-macs erhalten eine brutale grenze ist oder nicht, ist schwer zu sagen, für alle, die sich nicht in extremsten anwendungen wiederfinden, sollten aber 32bit für jedes einzelne unterprogramm, noch einen moment lang reichen. wie gesagt bietet os x bis dato nicht einmal an, in GUI-Prozessen mit 64bit-Adressierung zu fahren.

    nichtsdestotrotz: viele haben noch in guter erinnerung, was der wechsel von 16bit auf 32bit für neue möglichkeiten mit sich gebracht hat. da ist es nur klar, dass alle marketingabteilungen dieser welt vom jetzt anstehenden wechsel nach 64bit das blaue vom himmel versprechen.
     
  15. hochstammapfel

    hochstammapfel Châtaigne du Léman

    Dabei seit:
    18.04.05
    Beiträge:
    826
    :p Hack doch nicht so auf dem armen Bill rum...
     
  16. Steckepferd

    Steckepferd Normande

    Dabei seit:
    01.11.04
    Beiträge:
    573
    Danke für eure beiden Beiträge. Ich hätte nicht gedacht, dass das für mich technisch weniger interessierten soooooooo interessant ist. Ich möchte später dann lieber zu den erwähnten Marketingabteilungen gehören, die die technische Realität etwas "dehnen" ;)

    Dennoch, es wäre sehr nett wenn ihr mir dazu noch ein paar Fragen beantwortet: Nämlich das:

    das versteh ich nicht ganz. Wie meinst Du das jetzt? Ist jedes Bit eine 2, die dann so und so oft mit zwei potenziert wird oder ist jedes Bit, die erwähnte mit zwei multiplizierte Zahlenreihe? Also diese beiden Möglichkeiten:

    o o o o o o o o
    2 2 2 2 2 2 2 2


    o o o o o o o o
    1 2 4 8 16 32 64 128


    oder wie ???????????

    Verwirrung, denn ich verstehe Dein oooooxxx Beispiel nicht. Warum ist das erste Bit 2hoch 0?

    Und warum ist xooooooo 2 hoch 7? Das Bit an der achten Stelle ist doch EIN. Das hieße doch dann 2 hoch 8??

    Danke für die Geduld mit mir.

    Äh, noch was. Wie kommt dann diese Bezeichnung (ich denke mal Maßeinheit) 8 Bit = 1 Byte zustande (berühmte Frage in "Intelligenztests" bei Bewerbungen, also wieviel Bit ein Byte sind)?
     
  17. mullzk

    mullzk Linsenhofener Sämling

    Dabei seit:
    04.01.04
    Beiträge:
    2.529
    das kommt daher, dass mit dem ersten bit, also 0000'000x 1 dargestellt wird. um mit einer zweierpotenz 0 oder 1 darzustellen, rechnet man 2 hoch 0 = 1. und wenn du bei null anfängst, ist das 8. elemente halt erst 7 :D
    aber natürlich beinhaltet das teil trotzdem noch 8 stellen...
     
  18. Steckepferd

    Steckepferd Normande

    Dabei seit:
    01.11.04
    Beiträge:
    573
    Ok, jetzt versteh ich. Dann steht jedes Bit für eine zwei. Die bits werden durchnummeriert und zeigen dann an mit wieviel die 2 potentiert wird.

    Das erste Bit hat die Potenz 0, das zweite 1, das dritte 2, das vierte 3 usw.

    Dadurch entsteht dann die Zahlen reihe 2hoch0=1; 2hoch1=2; 2hoch2=4; 2hoch3=8 usw.

    Richtig?

    Mehrere eingeschaltete Bits werden addiert, deswegen ist wie erwähnt oooooxxx gleich 7 (1+2+4).

    Ist dann oooxooox gleich 17 (2hoch0=1 -"Plus"- 2hoch4=16)???
     
  19. mullzk

    mullzk Linsenhofener Sämling

    Dabei seit:
    04.01.04
    Beiträge:
    2.529
    rischtisch
     
  20. Steckepferd

    Steckepferd Normande

    Dabei seit:
    01.11.04
    Beiträge:
    573
    Juuuuuuuuuuuuuuuuhhhhhhhhhhhhhuuuuuuuuuuuuuuuuuu!

    Können wir das mal, aber ganz einfach, weiterspinnen?

    Was passiert dann mit den Zahlen. Wie führen sie zu dem was ich dann auf dem Schirm sehe.

    Diese Zahlen müssen ja für irgendwas stehen. Sind das Befehle, die jenach Programm anders sind, oder sowas?

    Ich meine eine Maschine ist doch strohdumm, bzw. hat (noch) garkeine Intelligenz. Es wird ja nur auf Schaltergedrückt, wie macht der Computer dann einzelen Sachen. Wie stellt er ein Bild dar, wie erstellt er ein Dokument oder was weiß ich?

    Lange Rede kurzer Sinn: Wo liegt die Verbindung zwischen den Zahlen und dem was ich als User von dem Computer mitkriege?

    Ich weiß für euch versierte Leute vielleicht alles banal, ich denke mal einige nicht so technisch/mathematisch versierte Leute (mich eingeschlossen) hier wird das schon interessieren.
     

Diese Seite empfehlen