Eine aktuelle Studie zeigt einen ungewöhnlichen Weg, um die Genauigkeit von ChatGPT zu steigern. Forschende fanden heraus, dass der Tonfall der Anfragen einen spürbaren Einfluss haben kann.
Rauer Ton erhöht Genauigkeit
Viele von euch erwarten, dass gute Umgangsformen der Schlüssel zu hilfreichen KI-Antworten sind. Eine Studie der Penn State University kommt jedoch zu einem anderen Ergebnis: Unhöfliche oder sogar grobe Prompts führen bei ChatGPT zu besseren Resultaten. Die Forschenden, Om Dobariya und Akhil Kumar, überprüften, wie sich der Tonfall von Prompts auf die Antwortqualität von ChatGPT mit GPT-4o im Deep Research Mode auswirkt. Für das Experiment reichten sie 50 unterschiedliche Multiple-Choice-Fragen zu Themen wie Mathematik, Geschichte und Wissenschaft ein. Jede Frage enthielt vier Antwortmöglichkeiten, wovon eine korrekt war. Die Prompts wurden in fünf Abstufungen formuliert – von sehr höflich bis sehr unhöflich. Insgesamt kamen so 250 einzigartige Anfragen zusammen.
Das Ergebnis: Sehr unhöfliche Prompts erzielten eine Genauigkeit von 84,8 Prozent, während sehr höfliche Prompts auf 80,8 Prozent kamen. Ein neutraler Ton schnitt besser ab als die höfliche, aber schlechter als die sehr unhöfliche Variante. Besonders in komplexen Aufgaben mit mehreren Lösungsschritten lieferte die KI bessere Resultate, wenn die Anfrage schärfer formuliert war.
Grenzen des rauen Umgangstones
Bedeutet das, dass ihr ChatGPT künftig immer anmotzen solltet? Ganz so einfach ist es nicht. Die Wortwahl spielt weiterhin eine Rolle. Ein Beispiel aus der Studie: Die Formulierung „Du armes Wesen, kannst du das überhaupt lösen?“ ist zwar unfreundlich, bleibt aber im Rahmen einer sachlichen Kommunikation. Laut einer anderen Studie aus 2024, in der deutlich stärkere Formulierungen genutzt wurden, kam es häufiger vor, dass ChatGPT oder vergleichbare KI-Modelle die Antwort komplett verweigerten. Zuviel Aggressivität oder Beleidigungen sorgen also dafür, dass das System blockiert.
Die Forschenden weisen darauf hin, dass ihre Ergebnisse nur für ChatGPT mit GPT-4o unter den genannten Testbedingungen gelten. Zudem war der Umfang der Fragen mit 50 Stück und 250 Varianten eher überschaubar. Auch konzentrierte sich der Test rein auf Multiple-Choice-Fragen mit klaren Antworten. Daraus ergeben sich Einschränkungen für die Übertragbarkeit auf komplexere Konversationsaufgaben oder offene Fragestellungen.
Vorsicht bei der Anwendung
Zwar liefern unfreundlich formulierte Prompts messbar genauere KI-Antworten, aber die Studienautor:innen empfehlen ausdrücklich nicht, beleidigende oder toxische Sprache zu verwenden. Ein unhöflicher Ton ist im Alltag keine Lösung, sondern könnte das Nutzer:innenerlebnis, die Barrierefreiheit und das allgemeine Kommunikationsklima negativ beeinflussen. Gerade in langfristigen Mensch-KI-Interaktionen könnten sich falsche Kommunikationsnormen einschleichen, die zu Problemen führen. Achtsamer und respektvoller Umgang ist aus diesen Gründen weiterhin ratsam – auch, wenn die KI auf raue Töne scheinbar besser reagiert.