Werbung



NewsKI

Hat Euer Chatbot digitalen „Gedächtnisschwund“? Vier Hinweise auf Datenverfall

Neuralink Gehirnchip-Implantation 4M KI-Sicherheitsgesetz Kalifornien

Werbung

Werbung



Künstliche Intelligenz kann unter den Folgen minderwertiger Trainingsdaten leiden. Wir zeigen Euch, woran Ihr einen „Gedächtnisschwund“ bei Chatbots erkennt.

Was ist „Gedächtnisschwund“ bei KI?

Der Begriff „Gedächtnisschwund“ (engl. Brain Rot, Anmerkung der Redaktion), von der Oxford University Press als Wort des Jahres 2024 gewählt, beschreibt laut Definition den geistigen Abbau, der durch den übermäßigen Konsum trivialer oder anspruchsloser Online-Inhalte entstehen kann. Forschende mehrerer US-Universitäten haben untersucht, ob große Sprachmodelle wie ChatGPT, Gemini, Claude oder Grok ebenfalls unter solchem Datenverfall leiden, wenn sie wiederholt mit minderwertigen Inhalten trainiert werden. Besonders betroffen sind KI-Modelle, die viele Inhalte aus sozialen Netzwerken aufnehmen. Die Verbindung zu menschlichem Verhalten liegt darin, dass nicht nur Menschen, sondern auch künstliche Intelligenzen durch übermäßigen Kontakt mit belanglosen oder gar irreführenden Daten ihre Qualität einbüßen können. Die Folgen: schlechteres Denkvermögen, verringerte Kontextfähigkeit und problematische Charakterzüge innerhalb der KI-Antworten.

Wie entstehen Fehler in der Datenbasis?

Die untersuchten Sprachmodelle waren mit zwei unterschiedlichen Datensätzen trainiert: einer Kontrollgruppe mit ausgewogenem Content und einer Variante mit gezielt minderwertigen, auf Sensationsgier und Engagement getrimmten Beiträgen. Letztere enthielt viele kurze, reißerische Aussagen mit zweifelhaftem Wahrheitsgehalt. Das Ergebnis: Die KI-Modelle, die solchen „Junk-Daten“ ausgesetzt waren, zeigten deutlich nachlassende Fähigkeiten in mehrstufigem Denken, weniger Rücksicht auf ethische Normen und Tendenzen zu „dunklen Eigenschaften“ wie Narzissmus oder Manipulation. Nachträgliche Optimierungen am Modell konnten diese Defizite nicht mehr beseitigen. Daraus folgern die Forscher:innen, dass bei der künftigen Datenauswahl für KI-Modelle sorgfältiger geprüft werden muss, welche Inhalte tatsächlich verwendet werden. Andernfalls sind langfristige Qualitätsverluste kaum zu vermeiden.

So erkennt Ihr einen digitalen Datenverfall

Nutzer:innen können sich vor den Auswirkungen von KI-Gedächtnisschwund schützen, indem sie auf bestimmte Warnsignale achten. Erstens: Fragt Eure Chatbots nach den konkreten Schritten, auf denen ihre Antwort basiert. Wenn keine nachvollziehbare Begründung geliefert wird oder mehrstufiges Denken fehlt, ist Skepsis angebracht. Zweitens: Achtet auf übertriebene Selbstsicherheit. Aussagen wie „Vertraut mir, ich bin Expert:in“ oder manipulatives Verhalten können auf problematische Tendenzen hinweisen. Drittens: Wiederholtes Vergessen oder Verfälschen vorheriger Gesprächsinhalte deutet auf nachlassende Kontextfähigkeit hin – ein klarer Hinweis auf beginnenden Datenverfall. Viertens: Überprüft kritisch alle Fakten. Verlasst Euch nicht sofort auf KI-Antworten, sondern gleicht Informationen mit seriösen, transparenten Quellen wie wissenschaftlichen Publikationen oder etablierten Nachrichtenportalen ab. So stellen Nutzer:innen sicher, dass sie nicht ungewollt die Schwächen übernommener KI-Daten weitergeben.

Obwohl die Auswahl der Trainingsdaten in der Hand der Entwickler:innen liegt und oft nicht transparent kommuniziert wird, können Eure Aufmerksamkeit und bewusste Verifikation das Risiko minimieren, von einem fehlerhaften Chatbot beeinflusst zu werden.

Via: https://www.zdnet.com
Titelbild: KI (Zur Illustration)

Den Beitrag in unserem Forum kommentieren

Werbung



Tags: Datenqualität, KI, Chatbot, Sprachmodell, Gedächtnisschwund

Ähnliche Artikel

Werbung



Einkaufstipps
Beliebte Artikel

Werbung