Werbung



KINews

OpenAI legt weitere Details zu Vereinbarung mit US-Verteidigungsministerium offen

OpenAI Strawberry GPT-4o Mini erweiterter Sprachmodus ChatGPT Investiton Mira Murati Orion Raw Story ChatGPT Pro OpenAI Public-Benefit-Corporation Deep Research KI-Chip Reasoning-Modelle GPT-4.5 Studio Ghibli ChatGPT Shopping-Funktion Sky

Werbung



OpenAI hat zusätzliche Informationen zu seiner umstrittenen Zusammenarbeit mit dem US-Verteidigungsministerium veröffentlicht. Der Konzern versucht damit, Kritik an dem schnell zustande gekommenen Deal zu entkräften.

Hintergrund: Gescheiterte Gespräche mit Anthropic

Auslöser war das Scheitern der Verhandlungen zwischen Anthropic und dem Pentagon am vergangenen Freitag. Danach wies US-Präsident Donald Trump Bundesbehörden an, die Nutzung von Anthropic-Technologie nach einer Übergangsfrist von sechs Monaten einzustellen. Verteidigungsminister Pete Hegseth erklärte zudem, er stufe Anthropic als Risiko für die Lieferkette ein.

Kurz darauf gab OpenAI bekannt, eine eigene Vereinbarung mit dem Ministerium getroffen zu haben, um KI-Modelle in geheimen Umgebungen bereitzustellen. Anthropic hatte zuvor klargestellt, dass das Unternehmen rote Linien bei vollautonomen Waffensystemen und umfassender inländischer Überwachung zieht. OpenAI-Chef Sam Altman betonte, sein Unternehmen habe dieselben Grenzen, was unmittelbare Fragen aufwarf: Hält OpenAI sich wirklich an diese Schutzmaßnahmen, und warum kam dort ein Deal zustande, während Anthropic scheiterte?

Altman räumte auf X ein, die Vereinbarung sei „definitiv überhastet“ zustande gekommen und die Außenwirkung sei „nicht gut“. Parallel verteidigten OpenAI-Verantwortliche den Vertrag in sozialen Netzwerken und veröffentlichten einen ausführlichen Blogeintrag zur eigenen Vorgehensweise.

Rote Linien und Sicherheitsarchitektur von OpenAI

In dem Blogbeitrag nennt OpenAI drei Bereiche, in denen die eigenen Modelle nicht eingesetzt werden dürfen: umfassende inländische Überwachung, autonome Waffensysteme und „hochrangige automatisierte Entscheidungen“, etwa Systeme nach dem Vorbild einer sozialen Bewertung. Das Unternehmen grenzt sich dabei von anderen KI-Anbietern ab, die angeblich Sicherheitsvorkehrungen zurückgefahren oder entfernt hätten und sich bei nationalen Sicherheitsanwendungen vor allem auf Nutzungsrichtlinien stützen.

OpenAI betont, der eigene Vertrag sichere die roten Linien durch einen „umfassenderen, mehrschichtigen Ansatz“ ab. So behalte OpenAI die vollständige Kontrolle über seinen Sicherheitsstapel, die Bereitstellung erfolge über die Cloud, geprüfte OpenAI-Beschäftigte blieben eingebunden und es gebe starke vertragliche Schutzmechanismen. Diese Maßnahmen kämen zusätzlich zu den bestehenden rechtlichen Schutzvorgaben im US-Recht.

Gleichzeitig erklärt das Unternehmen, man wisse nicht, warum Anthropic keine Einigung erzielen konnte, und hoffe, dass Anthropic und weitere Labore das Modell dennoch prüfen würden.

Kritik an möglicher Überwachung und Rolle der Cloud-Architektur

Nach Veröffentlichung des Blogeintrags kritisierte Mike Masnick von Techdirt, die Vereinbarung erlaube dennoch inländische Überwachung. Zur Begründung verwies er darauf, dass die Sammlung privater Daten gemäß Präsidialverfügung 12333 und weiteren Gesetzen erfolgen solle. Masnick beschreibt diese Verfügung als Grundlage dafür, dass die NSA inländische Überwachung verschleiere, indem sie Leitungen außerhalb der USA anzapfe, auch wenn dabei Informationen über US-Personen erfasst würden.

In einem Beitrag auf LinkedIn wandte sich OpenAIs Leiterin für Partnerschaften im Bereich nationale Sicherheit, Katrina Mulligan, gegen die Annahme, einzig eine Klausel zur Nutzung in einem Vertragswerk mit dem „Kriegsministerium“ trenne die US-Bevölkerung von KI-gestützter Massenüberwachung und autonomen Waffen. So funktioniere das nicht, argumentiert Mulligan. Die Architektur der Bereitstellung sei wichtiger als die Vertragsformulierung. Indem man die Nutzung auf Cloud-APIs beschränke, könne OpenAI sicherstellen, dass die Modelle nicht direkt in Waffensysteme, Sensoren oder andere operative Hardware integriert würden.

Altman verteidigte den Vertrag weiter auf X und bestätigte, dass die schnelle Einigung zu erheblichem Gegenwind geführt habe – bis hin dazu, dass Anthropics Claude am Samstag in Apples App Store ChatGPT überholte. Auf die Frage nach dem Warum erklärte er, man habe unbedingt deeskalieren wollen und das Angebot als gut eingeschätzt. Sollte die Vereinbarung tatsächlich zu einer Deeskalation zwischen dem Verteidigungsministerium und der Branche führen, würde OpenAI im Nachhinein wie eine Firma wirken, die viel Kritik in Kauf genommen habe, um der Industrie zu helfen. Andernfalls werde das Unternehmen weiterhin als überhastet und unvorsichtig dargestellt.

Sie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Via: https://techcrunch.com

Den Beitrag in unserem Forum kommentieren

Werbung



Tags: OpenAI, Anthropic, nationale Sicherheit, Sam Altman, autonome Waffen, Verteidigungsministerium, KI, Pentagon, Überwachung

Ähnliche Artikel

Werbung



Einkaufstipps
Beliebte Artikel

Werbung