OpenAI-Führungskraft verlässt das Unternehmen aus Sorge um die Priorität von Profit vor Sicherheit.
Jan Leike, der kürzlich von seiner Position als Leiter des "Superalignment"-Teams von OpenAI zurücktrat, war mit den Prioritäten der Unternehmensführung nicht einverstanden. Laut Leike hatte er eine "Sollbruchstelle" erreicht.
Die Begriffe "Alignment" oder "Superalignment" werden in der KI-Branche verwendet, um den Prozess zu beschreiben, bei dem KI-Systeme so trainiert werden, dass sie im Einklang mit menschlichen Bedürfnissen und Werten arbeiten. Leike wurde 2021 Teil von OpenAI, und im Sommer erklärte das Unternehmen, er werde das Superalignment-Team leiten, das sich auf "wissenschaftliche und technische Durchbrüche zur Steuerung und Kontrolle von KI-Systemen, die intelligenter sind als wir," konzentriert.
Leike erklärte jedoch, dass die letzten Monate für das Team eine Herausforderung waren, da es an Ressourcen mangelte und es "gegen den Wind segelte". Auf X teilte er mit, dass Rechenressourcen oft ein Problem darstellten und wichtige Forschungen behinderten. Am Donnerstag, so sagte er, werde sein letzter Tag in der Organisation sein.
"Die Entwicklung von KI-Systemen, die intelligenter sind als Menschen, ist ein gefährliches Unterfangen... Aber in den letzten Jahren wurden Sicherheitskultur und -prozesse von auffälligen Produkten in den Schatten gestellt", erklärte Leike auf X.
Leikes Abgang, der Anfang dieser Woche bekannt gegeben wurde, folgt auf einen größeren Wechsel in der Führung von OpenAI. Ilya Sutskever, OpenAIs Mitbegründer und Chief Scientist und ebenfalls Leiter des Superalignment-Teams, gab am Vortag seinen Rückzug bekannt, um sich auf ein Projekt zu konzentrieren, das "mir sehr am Herzen liegt".
Sutskevers Entscheidung war insofern bemerkenswert, als er eine entscheidende Rolle bei der Entlassung und anschließenden Wiedereinsetzung von OpenAI-CEO Sam Altman im vergangenen Jahr spielte. Berichten zufolge war Sutskever besorgt, dass Altman die KI-Technologie zu schnell vorantreiben würde, doch wenige Tage nach Altmans Entlassung änderte er seine Meinung und unterzeichnete eine Petition, in der er den Vorstand aufforderte, zurückzutreten und Altman wieder willkommen zu heißen.
Trotzdem scheint es, dass die Debatten darüber, wann, wie und wie schnell die KI-Technologie entwickelt und freigegeben werden soll, weiterhin zu Spannungen innerhalb des Unternehmens geführt haben, seit Altman die Kontrolle wiedererlangt hat. Die jüngsten Rücktritte kommen zu dem Zeitpunkt, als OpenAI ankündigte, der Öffentlichkeit über ChatGPT Zugang zu seinem leistungsstärksten KI-Modell, GPT-4, zu gewähren. GPT-4 ermöglicht gesprochene Unterhaltungen in Echtzeit und macht ChatGPT damit zu einem digitalen Assistenten.
"Ich bin der Meinung, dass wir viel mehr Zeit in die Vorbereitung auf die kommenden Generationen von Modellen investieren sollten, und zwar in Bereichen wie Sicherheit, Überwachung, Bereitschaft, Schutz, Fehlerrobustheit, (Super-)Alignment, Vertraulichkeit, gesellschaftlicher Einfluss und damit zusammenhängende Themen", so Leike in seinem Freitagsposting auf X. "Diese Bedenken sind ziemlich schwierig zu lösen, und ich mache mir Sorgen, dass wir nicht in die richtige Richtung gehen."
OpenAI kommentierte Leikes Anschuldigungen und verwies gegenüber CNN auf einen X-Post von Altman, in dem das Engagement des Unternehmens für Sicherheit betont wurde.
"Ich bin sehr dankbar für @janleikes Beiträge zu OpenAIs Ausrichtungsforschung und Sicherheitskultur und bin sehr enttäuscht, ihn gehen zu sehen", schrieb Altman. "Er hat Recht, dass wir noch viel mehr zu tun haben; wir sind entschlossen, es zu tun. Ich werde in den nächsten Tagen einen längeren Beitrag verfassen."
Beiträge von CNN-Mitarbeiterin Samantha Delouya.
Lesen Sie auch:
- Telefónica plant die Einführung eines holografischen Telefons
- vzbv: Internetkonzerne betrügen trotz Verbot weiter
- Telefónica will bis 2026 holografische Telefone auf den Markt bringen
- Worldcoin-Projekt verbindet Telegram und Reddit
Quelle: edition.cnn.com