News

OpenAIs neue Initiative gegen KI-Risiken

Apple unterbindet Nutzung von ChatGPT OpenAI KI-Risiken GPTs Emmett Shear Sam Altman Sicherheitskonzept GPT Store ohne Account OpenAI

Werbung

Seit bald einem Jahr ist ChatGPT in aller Munde, viele Stellen mach sich seit dem Gedanken über diverse KI-Risiken. OpenAI möchte hier neue Lösungen bieten.

Das KI-Forschungsunternehmen OpenAI nimmt die Bedrohungen durch Künstliche Intelligenz ernst. Ein neu gebildetes Team widmet sich genau diesen Risiken. Das Ziel: Potenzielle Gefahren erkennen und abmildern. Was bedeutet das für uns?

Risiken im Visier: Von nuklearen Bedrohungen bis zur Selbstreplikation

Das sogenannte Bereitschaftsteam soll verschiedene Risiken im Auge behalten. Das Spektrum ist breit. Es reicht von nuklearen Bedrohungen bis zu chemischen, biologischen und radiologischen Gefahren. Ein besonderes Augenmerk liegt auf der autonomen Replikation von KI. Auch Täuschung durch KI und Cybersicherheitsbedrohungen stehen auf dem Plan.

KI-Risiken: Ein Team mit Mission und Vision

OpenAI ist sich der ernsten Risiken bewusst, die mit fortschrittlichen KI-Modellen einhergehen können. “KI-Modelle mit überragenden Fähigkeiten können der gesamten Menschheit zugutekommen”, heißt es von OpenAI. Doch das Unternehmen betont auch: “Sie bergen zunehmend ernsthafte Risiken.” Das Bereitschaftsteam soll dazu beitragen, diese Risiken zu minimieren. Dabei geht es nicht nur um die Entwicklung risikoinformierter Politiken. Auch die Bewertung und Überwachung von KI-Modellen sind zentrale Aufgaben.

Expertise an der Spitze: Aleksander Madry übernimmt die Leitung

Aleksander Madry, bisher Direktor des MIT Center for Deployable Machine Learning, steht an der Spitze des neuen Teams. Seine Erfahrung und Expertise sind für diese herausfordernde Aufgabe unverzichtbar. Sam Altman, der CEO von OpenAI, hat bereits zuvor auf die Dringlichkeit hingewiesen, KI-Risiken zu adressieren. Er fordert, dass der Umgang mit KI-Technologien so ernst genommen wird wie Atomwaffen.

Via The Verge


Werbung



Tags: nukleare Bedrohungen, Selbstreplikation, Risikopolitik, Sam Altman, künstliche Intelligenz, Täuschung, Cybersicherheit, OpenAI, Risikobewertung, Bereitschaftsteam

Ähnliche Artikel


Werbung



Einkaufstipps
Beliebte Artikel