News

ChatGPT blockierte 250.000 Anfragen zu Wahlfälschung und verweigerte Deepfakes

OpenAI veröffentlichte Ergebnisse seiner Maßnahmen zur US-Präsidentschaftswahl 2024 und enthüllte dabei die bemerkenswerte Zahl an blockierten Anfragen. ChatGPT lehnte insgesamt über 250.000 Anfragen ab, die darauf abzielten, wahlbezogene Inhalte zu manipulieren oder Deepfakes zu erstellen. Dieser Erfolg spiegelt die Strategie von OpenAI wider, Fehlinformationen und die Erstellung von Bildmanipulationen während der Wahlsaison zu verhindern. Der KI-Bildgenerator DALL-E wies ebenfalls viele Versuche ab, Deepfakes von Präsident Biden, dem gewählten Präsidenten Trump, Vizepräsidentin Harris und weiteren politischen Persönlichkeiten zu erzeugen. OpenAI hatte im Vorfeld Sicherheitsmaßnahmen implementiert, um Anfragen zur Erstellung von Inhalten mit realen Personen abzuweisen.

OpenAIs Wahlstrategie: Fehlinformationen aktiv verhindern

OpenAI bereitete sich seit Jahresbeginn auf die US-Präsidentschaftswahl vor. Ziel war es, die Verbreitung von Fehlinformationen und gezielten Manipulationen durch ChatGPT zu unterbinden. Der Chatbot verwies Personen, die Informationen zur Wahl suchten, an vertrauenswürdige Quellen wie CanIVote.org. Allein im Monat vor dem Wahltag wurden 1 Million Anfragen zu dieser Informationsseite umgeleitet. Am Wahltag selbst und am Folgetag generierte ChatGPT über 2 Millionen Antworten und verwies dabei ausschließlich auf Nachrichtenquellen wie Associated Press und Reuters.

Neutralität und Sicherheit: ChatGPT ohne politische Präferenzen

OpenAI stellte sicher, dass ChatGPT keine politischen Präferenzen ausdrückte oder Kandidaten empfahl. Selbst explizite Anfragen in diese Richtung wurden abgelehnt, um eine neutrale und unverfälschte Informationsvermittlung zu gewährleisten. Diese Strategie half, gezielte Manipulationsversuche zu reduzieren und vertrauenswürdige Informationen zu Wahlthemen bereitzustellen.

Deepfakes und Social Media: Ein anhaltendes Problem

Während OpenAIs Schutzmaßnahmen erfolgreich zahlreiche Deepfake-Anfragen abwiesen, blieb die Verbreitung von manipulierten Inhalten ein Problem auf Social Media. Trotz der Maßnahmen von OpenAI kursierten wahlbezogene Deepfakes, wie etwa ein manipuliertes Video, das Vizepräsidentin Kamala Harris falsche Aussagen in den Mund legte. OpenAI betonte die Wichtigkeit von Standards und Maßnahmen, um die Verbreitung von Fehlinformationen und Manipulationen in sozialen Netzwerken einzudämmen.

Mit dieser umfassenden Strategie demonstrierte OpenAI, wie KI-Entwickler die Integrität von Wahlen aktiv unterstützen können. ChatGPT und DALL-E bieten damit ein Beispiel für verantwortungsbewussten KI-Einsatz in politisch sensiblen Zeiten.

Via Engadget

Jan Gruber

Chefredakteur Magazin und Podcasts

Neueste Artikel

Papst Leo XIV trägt Apple Watch

Bei seiner ersten öffentlichen Messe als neuer Papst hat Leo XIV mit einem unerwarteten Detail Aufmerksamkeit erregt: einer Apple Watch.…

11. Mai 2025

iOS 18.5 Release steht unmittelbar bevor

Ihr könnt schon mal eure Geräte anwärmen, denn der Release von iOS 18.5, iPadOS 18.5, macOS 15.5, tvOS 18.5 und…

10. Mai 2025

Apple Pay jetzt direkt auf der PlayStation 5 nutzen – derzeit nur in den USA

Apple erweitert die Nutzbarkeit von Apple Pay auf neue Plattformen. Ab sofort kannst Du Spiele im PlayStation Store direkt auf…

10. Mai 2025

Brasilien verpflichtet Apple zur Einführung von Sideloading

Ein brasilianisches Bundesgericht hat entschieden, dass Apple innerhalb von 90 Tagen das Sideloading auf iPhones ermöglichen muss. Damit wird eine…

10. Mai 2025

Fortnite kehrt zurück: Epic Games reicht App bei Apple ein

Nach fast fünf Jahren Abstinenz will Epic Games Fortnite wieder in den US-App Store bringen. Die Einreichung erfolgte über ein…

10. Mai 2025

LEGO Apple Store erreicht nächste Prüfphase

Ein LEGO-Set mit Apple-Bezug rückt einen Schritt näher an die Umsetzung. Der LEGO Apple Store hat die Schwelle von 10.000…

10. Mai 2025

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen