Versuchte, den CEO von OpenAI zu verdrängen, und startet nun einen Konkurrenten mit Schwerpunkt auf Sicherheit.
Am Don X-ten Wochentag, stellte Ilya Sutskever Pläne für ein neues Unternehmen mit dem Namen Safe Superintelligence Inc. (SSI) vor. Auf ihrer Website gab das Unternehmen folgende Erklärung ab:
"SSI ist unsere Mission, unsere Identität und unsere gesamte Produktstrategie, denn es handelt sich um unsere Hauptsache. Unser Team, Investoren und Geschäftsmodell sind alle auf SSI ausgerichtet, um sie zu erreichen. Unser Ziel ist, Fähigkeiten schnell auszubauen, dabei jedoch Sicherheit in Führung zu halten. Dadurch können wir ohne Sorgen wachsen."
Diese Ankündigung kommt in der Tech-Community und darüber hinaus, als sich Bedenken eskalieren, ob AI schneller fortschreitet als Sicherheit und ethische Forschung, ohne minimale Regulierung, die Tech-Unternehmen auf verantwortungsvollen Einsatz hinweisen.
Bekannt als einer der frühen Figuren der AI-Revolution, arbeitete Sutskever bei AI-Pionier Geoffrey Hinton während seines Studiums und gründete zusammen mit ihm eine AI-Startup, die später von Google übernommen wurde. Nach einer Zeit in Googles AI-Forschungeteam half Sutskever, das Unternehmen hinter ChatGPT zu gründen.
Allerdings wurde es für Sutskever bei OpenAI turbulent, als er mit einem Versuch verbunden war, CEO Sam Altman zu entlassen im letzten Jahr, was zu einer dramatischen Umschwung der Führung führte, der Altman's Entlassung, Wiedereinstellung und eine Aufsichtsrats-Umstrukturierung innerhalb einer Woche umfasste.
Laut CNN-Mitarbeiter Kara Swisher berichteten Quellen, dass Sutskever Altman wegen eines zu aggressiven Vorgehens bei der AI-Technologie betrachtete. Nach Altmans Entlassung äußerte Sutskever Reue für seine Beteiligung und unterzeichnete daraufhin ein Schreiben, das die gesamte Aufsichtsratsentlassung und Altmans Wiedereinstellung unterstützte.
Im März kündigte Sutskever seine Abfahrt von OpenAI – einer von mehreren Abfahrten um die gleiche Zeit – an, um sich einem persönlich bedeutsamen Projekt zu widmen.
Die Ziele von Safe Superintelligence bleiben unklar, denn unbekannt ist, wie sie einen "sicheren" AI-Modell vermarkten oder wie ihre Technologie in Produktform aussehen wird, die angesichts hochintelligenter künstlicher Intelligenz-Technologie Sicherheit bedeutet.
In einem Interview mit Bloomberg erklärte Sutskever: "Mit Sicherheit meinen wir Sicherheit wie bei nuklearer Sicherheit, anstatt Sicherheit wie bei 'Trust and Safety'."
Mitarbeiter, die OpenAI verließen, äußerten Bedenken, dass das Unternehmen auf kommerziellen Wachstum statt langfristiger Sicherheitsinvestitionen setze. Eines dieser ehemaligen Mitarbeiter, Jan Leike, äußerte sich im März über OpenAIs Entscheidung, die "Superausrichtung"-Mannschaft aufzulösen, die dazu bestimmt war, AI-Systeme an menschliche Werte und Ziele anzuleiten. (OpenAI bestritt jedoch, dass Superausrichtung-Mitglieder entlassen wurden und stattdessen in der gesamten Firma verteilt wurden, um sich besser mit Sicherheitsfragen auseinanderzusetzen.)
In ihrem Start-Ankündigungssignal will Safe Superintelligence eine eigenwillige Spur beschreiten: "Unser konzentrierter Fokus sichert uns gegen Management-Probleme und Produktzyklen, und unser Geschäftsmodell sichert unsere Sicherheit, Schutz und Fortschritt vor kurzfristigen kommerziellen Druck."
Zu diesem neuen Unternehmen gehören neben Sutskever Daniel Levy, der in den letzten zwei Jahren bei OpenAI gearbeitet hat, und Daniel Gross, ein Investor, der früher als Partner bei Startup-Beschleuniger Y Combinator und in maschinellen Lernprojekten bei Apple gearbeitet hat. Laut der Firma werden sie Büros in Palo Alto, Kalifornien, und Tel Aviv, Israel, errichten.