Dazu müsste man erst einmal definieren, was "veraltet" bedeutet. Und danach bewerten, welche Auswirkungen man aus dieser Definition herauszieht...
Ich will es mal versuchen: Der Begriff der "Veralterung" ist laut Duden mit der Bedeutung ".
..von einer Entwicklung überholt" belegt. Soweit so gut. Jetzt eignet sich eine grammatische Definition nur bedingt, um spezielle Produkte damit zu bewerten.
Der Elektromotor beispielsweise ist eine in jeder Hinsicht "neuer" und "aktueller" entwickelte Antriebsweise für Autos. Würden wir deshalb sagen, dass Käufer von benzingetriebenen Fahrzeugen ein "veraltetes" Auto kaufen?
Es gibt im Fertigungsprozess beinahe jedes Rohstoffs ständig Detailverbesserungen. Vor zwei Jahren wurde Garn noch mit einer anderen Fadenflechttechnik gewebt als heute - weil die Maschinen dies vielleicht heute wirtschaftlicher können und Fadenhersteller somit sparen. Sind also Kleidungsstücke, die mit dem alten Garn gewebt wurden, "veraltet"?
Ist das Messer, das vor 10 Jahren aus einer Legierung gefertigt wurde, die man heute mit modernerer Fertigungstechnik besser veredelt, heute "veraltet"?
Per Definition würde man die obigen Beispiele bejahen, dennoch zeigen sie, dass der Maßstab der reinen Definition nicht immer passt.
Aber... werden viele jetzt sagen... in der IT doch! Warum? Na weil die Ansprüche an die Technik stetig wachsen und somit auch die Leistung der Technik wachsen muss. Ja und NEIN. Denn was viele IT-ler als "Gesetz" ansehen, ist eine Folge der sich formierenden Branche und der rasanten Entwicklung der IT im letzten Jahrhundert gewesen. Von den 70ern bis ins neue Jahrtausend wurden rasante Leistungssprünge in der Computerisierung gemacht, und als erschwingliche Personalcomputer den Consumermarkt eroberten, ging das Leistungsrennen erst richtig los. Wer in den 90ern einen PC hatte, konnte sicher sein, dass alle 2 Monate eine neue CPU die Messlatte erhöhen würde.
Irgendwann - so in der Endphase von Pentium 4 und PowerPC G5 (und den entsprechenden Athlons...) hatte die Branche erkannt, dass hier nichts mehr zu holen war - denn anstatt mit jedem Update irre neue Erlebnisse für den Kunden zu schaffen (endlich 3 FPS mehr in CS!!! Yeah!) - erledigten diese ihre Aufgaben nun auf Monstermaschinen die nur noch lauter und heisser wurden anstatt wirklich mehr zu bieten.
In der Core2Duo-Ära war es dann endlich wirklich der Fall: PCs waren so leistungsstark, dass sie im Grunde alles konnten, was der Nutzer wollte. Videos schneiden, Audio mixen, RAWs bearbeiten, etc. etc. etc. Hard- und Softwarehersteller suchten sich neue Felder, denn ihre ganze Industrie basierte auf einer Kundschaft, die an ein unumstößliches Gesetz gewöhnt war:
"Jedes Halbjahr erscheint neue IT, die besser ist als die IT, die ich jetzt habe. Ich muss die neue IT haben, um noch besser XYZ machen zu können!"
Warum sollte man denn seine Kunden umerziehen, dass das gar nicht mehr nötig war? War doch die IT eine der wenigen Branchen, wo die Kunden freiwillig daran glaubten!
Langsam merken die Leute, dass sie selbst mit einem iPhone arbeiten können, weil Leistung der Hardware längst keinen Einfluss mehr auf die Arbeitsprozesse hat, sondern ganz andere Dinge wie Ergonomie, Design, Schlüssigkeit der Anwendung, etc.
Aber Menschen (und insbesondere IT-ler) sind träge und hängen gern ihr Leben lang dem nach, was sie in einer besonders prägenden Phase erlebt haben. Und für viele waren das halt die 90er mit ihren rasanten Entwicklungen im PC-Bereich. Das lässt sie dann heute noch glauben, es wäre
wirklich relevant, ob die CPU in ihren Notebooks 2014, 2015 oder 2016 designed worden ist...
just my 2 cents...