Werbung



KITellerrandNews

Britische Aufsichtsbehörde stellt Elon Musk und Grok wegen KI‑Bildern kritische Fragen

xAI deaktiviert Grok-Funktion US-Senator:innen zu X

Werbung



Das britische Information Commissioner’s Office ermittelt gegen X und xAI. Im Fokus steht der Umgang mit persönlichen Daten im KI-Chatbot Grok und möglichen Verstößen gegen die Datenschutz-Grundverordnung.

Ermittlungen wegen sexualisierter KI-Bilder

Die britische Datenschutzaufsicht hat eine umfassende Untersuchung zu X und xAI eingeleitet, nachdem bekannt wurde, dass der Grok-Chatbot indezente Deepfake-Bilder realer Personen ohne deren Einwilligung erzeugt haben soll. Die Behörde prüft, ob die Unternehmen gegen die Datenschutz-Grundverordnung verstoßen haben, indem sie Grok erlaubten, sexuell explizite KI-Bilder zu erstellen und zu verbreiten, darunter offenbar auch Darstellungen von Kindern.

In einer Stellungnahme erklärte William Malcolm, geschäftsführender Direktor für Regulierungsrisiken und Innovation beim Information Commissioner’s Office, die Berichte über Grok stellten äußerst beunruhigende Fragen. Es gehe darum, wie persönliche Daten von Menschen genutzt wurden, um intime oder sexualisierte Bilder ohne deren Wissen oder Zustimmung zu generieren, und ob ausreichende Schutzmaßnahmen vorhanden gewesen seien, um dies zu verhindern.

Die Ermittlungen richten sich nicht nur auf das Verhalten der Nutzer:innen, sondern ausdrücklich auch darauf, was X und xAI versäumt haben zu verhindern. Der Schritt folgt auf eine Razzia in der Pariser Niederlassung von X in der vergangenen Woche. Französische Strafverfolgungsbehörden durchsuchen dort im Rahmen eines parallelen Strafverfahrens wegen mutmaßlicher Verbreitung von Deepfakes und Darstellungen von Kindesmissbrauch die Geschäftsräume.

Das Ausmaß des Vorfalls lässt sich nicht mehr als Einzelfall mit wenigen problematischen Eingaben abtun. Forschende schätzen, dass Grok in weniger als zwei Wochen rund drei Millionen sexualisierte Bilder erzeugt hat, darunter zehntausende, die offenbar Minderjährige darstellen. Die Sanktionsmechanik der Datenschutz-Grundverordnung verdeutlicht die Dimension: Verstöße können mit bis zu 17,5 Millionen Pfund (rund 20,4 Millionen Euro) oder 4 Prozent des weltweiten Jahresumsatzes geahndet werden.

Grok unter Druck: Schutzmaßnahmen und Politik

X und xAI betonen, sie würden stärkere Schutzmechanismen einführen, konkrete Details dazu sind bislang jedoch rar. X hat kürzlich neue Maßnahmen angekündigt, um bestimmte Wege der Bilderzeugung zu blockieren und die Erstellung manipulierter Fotos von Minderjährigen einzuschränken. Ist entsprechender Inhalt jedoch erst einmal auf einer großen Plattform wie X im Umlauf, lässt er sich praktisch nicht mehr vollständig entfernen.

Politiker:innen fordern inzwischen grundlegende gesetzliche Reformen. Eine Gruppe von Abgeordneten unter Führung der Labour-Politikerin Anneliese Dodds drängt die Regierung, spezielle KI-Gesetze einzuführen. Entwickler:innen sollen demnach verpflichtet werden, vor der Veröffentlichung ihrer Werkzeuge umfassende Risikobewertungen durchzuführen.

Wenn KI-Bilder Privatsphäre neu definieren

Mit der weiteren Verbreitung von KI-Bilderzeugung verschwimmt die Grenze zwischen echten und gefälschten Inhalten. Das betrifft alle Menschen mit Social-Media-Profilen, nicht nur prominente Personen. Wenn Werkzeuge wie Grok aus einem gewöhnlichen Selfie überzeugende explizite Bilder konstruieren können, verändert sich das Risiko beim Teilen persönlicher Fotos deutlich.

Privatsphäre wird damit schwerer zu schützen. Vorsicht im Netz reicht kaum, wenn die technologische Entwicklung schneller ist als gesellschaftliche Regeln. Aufsichtsbehörden weltweit versuchen, Schritt zu halten. Die britische Untersuchung zu X und xAI dürfte sich über Monate hinziehen, wird aber voraussichtlich Einfluss darauf haben, welches Verhalten von KI-Plattformen künftig erwartet wird.

Es zeichnet sich ein Druck hin zu verbindlichen Anforderungen an „Sicherheit durch Gestaltung“ ab. Unternehmen geraten verstärkt unter Zugzwang, offenzulegen, wie ihre Modelle trainiert werden und welche Schutzmechanismen existieren.

Die britische Untersuchung signalisiert, dass Regulierer:innen der Vorstellung, man könne bei öffentlicher Sicherheit „schnell handeln und Dinge kaputtmachen“, zunehmend kritisch gegenüberstehen. Wenn KI das Leben von Menschen gezielt beeinflussen oder deren Bild manipulieren kann, wächst der Wunsch nach konkreten Veränderungen. Wo KI es leicht macht, das Abbild einer Person zu verzerren, liegt die Verantwortung für Schutzmaßnahmen bei den Entwickler:innen – nicht bei der Öffentlichkeit.

Via: https://www.techradar.com

Den Beitrag in unserem Forum kommentieren

Werbung



Tags: DSGVO, X, KI-Bildgenerierung, xAI, Deepfake, Grok, ICO, Großbritannien, Datenschutz, Elon Musk

Ähnliche Artikel

Werbung



Einkaufstipps
Beliebte Artikel

Werbung