Salta al contenuto

Ha tentato di scalzare il CEO di OpenAI e ora sta lanciando un concorrente che enfatizza la sicurezza.

Il cofondatore di OpenAI, scomparso, presenta una nuova impresa: un'azienda incentrata sulla creazione di soluzioni AI sicure e potenti.

Ilya Sutskever, informatico russo-israeliano-canadese ed ex scienziato capo di OpenAI, ha...
Ilya Sutskever, informatico russo-israeliano-canadese ed ex scienziato capo di OpenAI, ha annunciato l'avvio di una nuova società dedicata alla "superintelligenza sicura".

Ha tentato di scalzare il CEO di OpenAI e ora sta lanciando un concorrente che enfatizza la sicurezza.

Settimana X di Ilya Sutskever ha visto la presentazione di un'iniziativa nuova intitolata Safe Superintelligence Inc. (SSI). Sullo stesso sito web, la società ha dichiarato:

"SSI è nostra missione, nostra identità e nostra strategia produttiva principale, poiché è il nostro obiettivo. Il nostro team, gli investitori e il nostro modello d'affari sono tutti allineati per raggiungere SSI. Il nostro obiettivo è di aumentare le capacità rapidamente mentre la sicurezza prende il comando. Così possiamo espandere senza preoccupazioni."

Questa annuncio arriva in un momento in cui le preoccupazioni si intensificano nella comunità tecnica e oltre, chiedendosi se l'Intelligenza Artificiale stia avanzando a un tasso più veloce di quello della ricerca di sicurezza e etica, con poche regole da guidare le aziende su un utilizzo responsabile.

Noto tra i primi figuri della rivoluzione AI, Sutskever ha lavorato sotto l'pioniere dell'Intelligenza Artificiale Geoffrey Hinton durante i suoi anni da studenti e ha co-creato una startup AI che in seguito è stata acquisita da Google. Dopo un periodo nel team di ricerca AI di Google, Sutskever ha contribuito a stabilire l'entità dietro ChatGPT.

Tuttavia, le cose sono diventate turbolente per Sutskever a OpenAI quando è stato associato ad un tentativo di licenziare il CEO Sam Altman l'anno scorso, portando a un drammatico ripensamento della leadership che includeva l'esonero, il riassunzione e un riassetto del consiglio di amministrazione entro una settimana.

Fonti come Kara Swisher del contributors di CNN hanno precedentemente riportato che Sutskever sentiva che Altman stesse spingendo troppo velocemente la tecnologia AI. Tuttavia, seguendo l'esonero di Altman, Sutskever ha espresso rimori per la sua partecipazione e successivamente ha firmato una lettera a favore della dimissione completa del consiglio e il ritorno di Altman.

A marzo, Sutskever ha annunciato la sua uscita da OpenAI – una delle varie partenze intorno alla stessa epoca – per concentrarsi su un progetto di significato personale.

Gli obiettivi di Safe Superintelligence rimangono incerti, poichè non è chiaro come stiano pianificando di monetizzare un modello di intelligenza artificiale "più sicuro" o la specifica forma che la loro tecnologia prenderà in termini di prodotti. Inoltre, è incerto cosa significa per loro "sicurezza" in relazione a tecnologia intelligenza artificialmente molto intelligente.

In un'intervista a Bloomberg, Sutskever ha dichiarato: "Per sicuro intendiamo sicuro come la sicurezza nucleare, anzichè sicuro come 'sicurezza e trasparenza'."

Gli impiegati che hanno lasciato OpenAI hanno espresso preoccupazioni sulla priorità della società per il crescimento commerciale a lungo termine rispetto alle investimenti in sicurezza a lungo termine. Tra questi ex dipendenti, Jan Leike, ha sollevato preoccupazioni a marzo sulla scelta di sciogliere il loro "team di superallineamento", che era dedicato all'addestramento di sistemi AI per aderire agli obiettivi e ai valori umani. (OpenAI, tuttavia, ha affermato che i membri del team di superallineamento erano stati distribuiti in tutto la società per meglio affrontare i problemi di sicurezza.)

Nell'annuncio di lancio, Safe Superintelligence mostra un desiderio di tracciare un corso distinto: "La nostra concentrazione assicura che non ci sono imprevisti amministrativi o cicli di prodotti, e il nostro modello d'affari assicura che la sicurezza, la sicurezza e il progresso siano tutte protetti da pressioni commerciali a breve termine."

Si uniscono a Sutskever in questa nuova impresa Daniel Levy, che ha lavorato a OpenAI negli ultimi due anni, e Daniel Gross, un investitore che precedentemente ha lavorato come partner al acceleratore di start-up Y Combinator e in progetti di apprendimento automatizzato a Apple. Secondo la società, avranno stabilito uffici a Palo Alto, California, e Tel Aviv, Israele.

Leggi anche:

Commenti

Più recente