Salta al contenuto

Cosa c'è da sapere sulla super AI di Q*

"Minaccia per l'umanità"

Anche se ad oggi non ci sono quasi informazioni affidabili su Q*, molti nella comunità stanno già....aussiedlerbote.de
Anche se ad oggi non ci sono quasi informazioni affidabili su Q*, molti nella comunità stanno già dichiarando che il nuovo modello di IA è la "più grande scoperta della civiltà umana"..aussiedlerbote.de

Cosa c'è da sapere sulla super AI di Q*

L'avvertimento di uno sviluppo potenzialmente pericoloso per l'uomo nell'ambito dell'intelligenza artificiale avrebbe avuto un ruolo importante nel licenziamento di Sam Altman come capo del provider di chatGPT OpenAI. Cosa c'è dietro la presunta superintelligenza Q*?

Fino a pochi giorni fa, la cosiddetta superintelligenza era quasi una chimera. Molte persone erano stupite da ciò che l'intelligenza artificiale è già in grado di fare e dalla velocità con cui gli sviluppatori di software rilasciano nuovi e migliori programmi. Tuttavia, anche molti esperti non potevano immaginare che l'intelligenza artificiale sarebbe stata più intelligente dell'uomo, almeno non ancora. Secondo molti esperti, ci vorrebbero ancora anni per sviluppare una superintelligenza. Ma ora si ipotizza che un importante passo avanti possa essere già stato compiuto.

Il motivo è il nuovo progetto dell'inventore di ChatGPT OpenAI chiamato Q* ("Q-Star"). Il modello dovrebbe essere in grado di risolvere autonomamente problemi matematici che prima non conosceva - gli esperti ritengono che questa sarebbe una pietra miliare nella direzione dell'"Intelligenza Generale Artificiale", o AGI in breve, o colloquialmente nota come super intelligenza.

Come riportato dall'agenzia di stampa Reuters e dalla rivista "The Information", Q* avrebbe anche avuto un ruolo nel licenziamento dell'ormai reintegrato CEO e co-fondatore di OpenAI Sam Altman. Secondo le due fonti, una versione di prova del modello, che probabilmente circolava all'interno di OpenAI, ha messo in allarme gli esperti di sicurezza. Una lettera interna al personale pare abbia avvertito che lo sviluppo di Q* potrebbe rappresentare una "minaccia per l'umanità".

"Nessuno sa esattamente cosa sia".

Ma cosa può fare il programma che ha scatenato una tale ondata di paura all'interno della società di software? "Nessuno sa esattamente di cosa si tratti", afferma Damian Borth, direttore accademico del programma di dottorato in informatica dell'Università di San Gallo. "Non c'è un post su un blog o un documento pubblicato. Ci sono solo congetture e questa è la cosa interessante". Come molti altri nella comunità, sospetta che la "Q" nel nome sia un riferimento al cosiddetto Q-learning. Si tratta di un algoritmo di apprendimento per rinforzo, un metodo di apprendimento automatico. In parole povere, i programmi interagiscono con l'ambiente, prendono decisioni e ricevono una ricompensa per un'azione positiva. Questo lo incoraggia (rinforzo) ed esegue l'azione più spesso, e viceversa per le azioni negative.

Altri nella comunità online di OpenAI, tuttavia, sospettano che dietro il nome in codice del progetto ci sia l'informatica quantistica. I computer quantistici sono estremamente potenti e possono risolvere problemi specifici e complessi con molte variabili più velocemente dei computer convenzionali. Tuttavia, Borth ritiene che ciò sia improbabile. "OpenAI non ha fatto molto in questo settore, ma si è chiaramente concentrato sulle GPU, cioè sui processori grafici", afferma. "Nell'apprendimento per rinforzo, invece, OpenAI è sempre stata molto forte. Insieme all'IA generativa, che include ChatGPT, questo è uno dei pilastri centrali".

Dietro l'asterisco di Q*, la comunità sospetta l'algoritmo "A*", che può determinare il percorso più breve tra due nodi o punti. Per farlo, non seleziona alla cieca il nodo successivo disponibile, ma prende in considerazione informazioni aggiuntive per accelerare la ricerca.

Gli utenti esprimono apertamente il loro scetticismo

Anche se finora non è disponibile quasi nessuna informazione affidabile su Q*, molti nella comunità stanno già dichiarando che il nuovo modello di intelligenza artificiale è la "più grande scoperta della civiltà umana", una "rivoluzione" e un sistema "rivoluzionario". Parole grosse per il fatto che, secondo Reuters e The Information, Q* è in grado di risolvere solo problemi di matematica a livello di scuola elementare.

Alcuni utenti sono quindi apertamente scettici: "Come persona che ha fatto molte ricerche sull'IA, posso dire che è molto facile credere che sia stata raggiunta una svolta", scrive uno. Un altro scrive che "l'intelligenza umana o superumana" ha bisogno di una "architettura diversa". "Q* è un movimento in quella direzione, ma non è affatto chiaro se sia "quella"", scrive un utente di OpenAI.

In effetti, la particolarità di Q* è apparentemente quella di poter risolvere compiti matematici in modo indipendente. "Per quanto ne sappiamo finora, questa è la prima volta che l'IA è riuscita a raggiungere il tipo di prestazioni intellettuali richieste per la matematica", dice Borth. "Quindi la macchina non sta solo ripetendo a pappagallo, come dicono gli scettici di ChatGPT, ma si suppone che Q* abbia la capacità di trarre conclusioni logiche". Tuttavia, non si può ancora dire se questo sia un passo decisivo verso l'AGI.

"Per prima cosa, la definizione di AGI non è del tutto chiara. Si tratta di una macchina consapevole di sé, che lavora contro gli esseri umani o che semplicemente generalizza diversi compiti?", afferma Borth. "D'altra parte, non credo che l'AGI sia necessaria per essere pericolosa per gli esseri umani. A seconda di come gestiamo i nostri sistemi attuali, questo potrebbe già accadere".

Altman è considerato il volto del boom dell'IA

L'inquietudine deriva anche dal fatto che l'azienda stessa avrebbe messo in guardia da questa eventualità. Gli esperti di sicurezza sarebbero stati particolarmente allarmati dal ritmo di sviluppo, come riporta The Information.

Altman, considerato il volto del boom dell'IA e che si dice abbia avuto come obiettivo quello di insegnare ai computer ad apprendere in modo indipendente fin dall'inizio, ha commentato i potenziali rischi dell'IA durante un'audizione al Senato degli Stati Uniti quest'anno: "I miei peggiori timori sono che stiamo facendo danni significativi alla tecnologia e all'industria. [...] Penso che se questa tecnologia va male, può andare molto male. E noi vogliamo essere chiari su questo", ha dichiarato Altman, che ora è di nuovo CEO di OpenAI dopo un tira e molla senza precedenti.

Il consiglio di amministrazione aveva inizialmente licenziato Altman quasi quindici giorni fa senza fornire motivazioni e aveva nominato due volte un amministratore delegato ad interim. Mercoledì scorso, tuttavia, le pressioni del grande investitore Microsoft sono diventate troppo forti e Altman è tornato al suo posto. Allo stesso tempo, è stato nominato un nuovo consiglio di amministrazione, di cui fa parte l'ex Segretario del Tesoro statunitense Larry Summers. Secondo Sarah Kreps, direttrice del Tech Policy Institute di Washington, il nuovo consiglio di amministrazione sostiene la visione di Altman di accelerare lo sviluppo dell'IA e allo stesso tempo di adottare misure di sicurezza.

Questo articolo è apparso per la prima volta su Capital.de.

Fonte: www.ntv.de

Commenti

Più recente