Il presidente di Microsoft dubita che AGI agirà in modo indipendente nei prossimi dodici mesi
Secondo Microsoft, una "superintelligenza" artificiale che agisce in modo indipendente è ancora lontana dalla realtà. "È assolutamente improbabile che vedremo una cosiddetta AGI in cui i computer sono più potenti degli esseri umani nei prossimi dodici mesi", ha dichiarato giovedì Brad Smith, presidente della società di software. "Ci vorranno anni, se non decenni". Tuttavia, la sicurezza di questa tecnologia deve essere considerata già ora.
AGI sta per "Intelligenza Generale Artificiale". A differenza delle precedenti IA, come ChatGPT dell'affiliata Microsoft OpenAI, questi programmi sono in grado di eseguire compiti complessi senza l'intervento umano. I critici temono che un'IA possa scatenare guerre o sviluppare e diffondere virus letali per l'uomo.
La discussione sul momento della "singolarità tecnologica", quando l'intelligenza artificiale supererà quella umana, è stata alimentata dal tumulto che ha accompagnato il licenziamento a breve termine del CEO di OpenAI Sam Altman. I litigi su come gestire una svolta nella ricerca sull'intelligenza artificiale potrebbero aver giocato un ruolo nella vicenda. Secondo alcuni addetti ai lavori, gli sviluppatori del progetto "Q*" (pronuncia: Q-Star) avevano avvertito il consiglio di amministrazione di OpenAI delle conseguenze potenzialmente dannose di un rilascio prematuro del programma. Secondo il presidente di Microsoft Smith, la questione della superintelligenza non ha avuto un ruolo nel licenziamento di Altman. Ci sono state divergenze di opinione con il Consiglio di Amministrazione, ma non su questioni fondamentali come questa.
I legislatori di tutto il mondo stanno lottando per trovare una regolamentazione adeguata in materia di IA. In occasione di un vertice sull'IA tenutosi all'inizio di novembre, diversi Paesi si sono impegnati a collaborare su questo tema. "Ciò di cui abbiamo veramente bisogno sono reti di sicurezza", ha continuato Smith. "Così come esistono freni di emergenza negli ascensori o interruttori automatici, anche nei sistemi di IA che controllano le infrastrutture critiche dovrebbero esserci tali salvaguardie, in modo che rimangano sempre sotto il controllo umano".
Fonte: www.ntv.de