Aktuelle Aktivitäten des KI-Spezialisten Sutskever enthüllt.
AI-Pionier Ilya Sutskever, bekannt für seine pionierende Arbeit im Bereich und mit Alexnet 2012 für die AI-Begeisterung verantwortlich, startet jetzt eine neue Unternehmung, Safe Superintelligence (SSI), um die Sicherheit von AI-Technologie sicherzustellen.
Mit 37 Jahren, der kürzlich sein Geburtstag gefeiert hat, war Sutskever einer der Gehirne hinter der Gründung von OpenAI im Jahr 2015. Sein Weggang von OpenAI im Mittelersten Mai löste Gerüchte über seine Zukunftpläne aus. Nun hat der AI-Experte etwas über seine anstehende Projektrevelationen preisgegeben: Sutskever, zusammen mit seinem ehemaligen OpenAI-Kollegen Daniel Levy und dem ehemaligen Apple-Manager Daniel Gross, gründet Safe Superintelligence (SSI). Das Ziel: die sichere Superintelligenz zu züchten.
Das lange bestehende Problem der AI-Sicherheit belastete Sutskever lange. Er schloss sich OpenAI an, um die AI-Innovation voranzutreiben, gleichzeitig ihre Sicherheitsbedenken anzusprechen. Der Altman-Skandal könnte ein Teil dieser Diskordanz gewesen sein – mit Sutskever berichtet worden, er sei enttäuscht über die wachsenden wirtschaftlichen Interessen von OpenAI, die es in einen Milliarden-Dollar-Unternehmen verwandelten. Sutskever hat diese Vorwürfe öffentlich noch nicht bestätigt oder verneint, aber sein OpenAI-Gegenpart und Mitgründer von Startups, Jan Leike, teilte auf X folgendes aus: "Die Sicherheitsbetonung hatte sich in den Hintergrund gedrängt, um prächtige Produkte zu zeigen."
SSI will dieses Situation korrigieren. Das Unternehmen wird in einer Pufferzone operieren, unabhängig von äußeren Druck, an einem komplexen Produkt beteiligt sein und im Markt konkurrieren. "Dieses Unternehmen ist einzigartig, weil sein erstes Produkt eine sichere Superintelligenz ist, und das's es ist," erzählte Sutskever Bloomberg.
SSI kann den wirtschaftlichen Druck ganz komplett entkommen. Die neuesten Sprachmodelle fordern kolossale Mengen an Daten und rechnerischer Leistung auf. Sutskevers neues Unternehmen ist nicht davon befreit. Die Identitäten der SSI-Investoren bleiben geheim.
Die genauen Ziele, was SSI erreichen und entwickeln will, sind noch nicht geklärt. Es ist jedoch deutlich, dass es nicht um die Fehler und Risiken von bestehenden AI-Produkten, wie Datenschutzbedenken, Urheberrechtsfragen oder die mangelnde Tatsachengenauigkeit als Kernkompetenz für Werkzeuge wie ChatGPT geht.
Sutskever beschäftigt sich mit größeren Fragen, wie advanced AIs in der Zukunft aussehen und wie sie mit Menschen zusammenleben werden. In einem Interview mit The Guardian einige Monate ago äußerte Sutskever Bedenken, dass AI tatsächlich "alle Probleme, die wir heute haben," einschließlich der Arbeitslosigkeit, Krankheiten und Armut "lösen würde," aber auch neue Herausforderungen hervorbringen würde: "AI hat das Potenzial, ewige Diktaturen zu schaffen." Sutskever spricht von einer zukünftigen Phase der AI, die Superintelligence genannt wird, die, wie dieses Verständnis sieht, stärker als eine Allgemeine Künstliche Intelligenz (AGI) ist. Sie würde nicht nur menschliche Fähigkeiten nachahmen, sondern auch Fähigkeiten übertreffen.
Eine solche Superintelligence muss die Fähigkeit besitzen, dem Menschen erhebliche Schaden zuzufügen, wie Sutskever Bloomberg erzählte. "Wir wollen, dass es auf einigen wesentlichen Werten operiert." Dabei sieht er "vielleicht die Werte, die in den letzten paar Jahrhunderten erfolgreich waren und die die liberalen Demokratien unterliegen, wie Freiheit und Demokratie."
Genau, wie die Gründer diese Werte in ihre AI-Modelle einbringen planen, bleibt unklar. Es gibt lediglich die Aussage, dass es in der Zukunft gigantische Superrechnergeleräte geben werde, die innovative Technologien autonom entwickeln werden. "Das ist verrückt, nicht wahr? Das ist 'unser Sicherheit, an der wir beitragen wollen'."
Diesen Text originalappeared at capital.de