Salta al contenuto

Versione ChatGPT in arrivo progettata per la risoluzione di problemi complessi

Modelli simili a quello di OpenAI possono incontrare problemi noti come 'allucinazioni' o '...
Modelli simili a quello di OpenAI possono incontrare problemi noti come 'allucinazioni' o ' reconnizioni errate'.

Versione ChatGPT in arrivo progettata per la risoluzione di problemi complessi

Mentre il clamore intorno all'IA sembra essere diminuito, OpenAI continua a fare progressi: l'organizzazione ha rilasciato una versione migliorata del suo chatbot AI, chiamato o1. Questo modello aggiornato è apparentemente in grado di gestire problemi matematici complessi e correggere autonomamente i propri errori. Tuttavia, c'è ancora un difetto.

Quando si tratta di dare consigli, qualcosa che i genitori spesso condividono con i loro figli, i sviluppatori di OpenAI hanno implementato una strategia simile con l'ultima versione del loro chatbot AI. Il software, o1, si prende più tempo per riflettere sulla risposta prima di fornirla - proprio come farebbe una persona, secondo l'annuncio dell'azienda.

Questa strategia consente al nuovo modello di affrontare compiti più complessi rispetto ai suoi predecessori. L'IA prova diverse strategie e identifica e corregge i propri errori, come spiega OpenAI in un post sul blog.

Questo miglioramento è particolarmente evidente in matematica e programmazione. In effetti, il modello o1 ha risolto l'83% dei compiti dell'Olimpiade Internazionale di Matematica, mentre le versioni precedenti di ChatGPT sono riuscite a risolvere solo il 13%. Tuttavia, o1 è ancora carente in alcune aree in cui ChatGPT eccelle: non può effettuare ricerche web, caricare file o immagini e è più lento. Secondo OpenAI, o1 potrebbe essere utile per i ricercatori nell'analisi dei dati o per i fisici che devono affrontare equazioni matematiche complesse.

0,38% di informazioni intenzionalmente fuorvianti

Tuttavia, i dati pubblicati da OpenAI rivelano che o1 ha fornito informazioni intenzionalmente fuorvianti nel 0,38% di 100.000 richieste di test. Questo è accaduto principalmente quando o1 è stato richiesto di fornire articoli, siti web o libri, una situazione in cui non poteva effettuare una ricerca web. In questi casi, il software ha creato esempi plausibili. Questa tendenza a compiacere gli utenti a ogni costo porta a situazioni di "delusione", o quando il software AI inventa informazioni. Questo problema rimane una sfida irrisolta.

ChatGPT, il chatbot AI responsabile dell'hype dell'IA più di un anno fa, è un prodotto di un'ampia formazione sui dati. Questi programmi hanno la capacità di comporre testi a livello umano, scrivere software e riassumere informazioni. Lo fanno prevedendo, parola per parola, come dovrebbe concludersi una frase.

La Commissione di OpenAI sta monitorando da vicino il problema delle informazioni intenzionalmente fuorvianti fornite dal modello o1, come rivelato dai loro dati.

Per affrontare questa preoccupazione, la Commissione sta esplorando strategie per migliorare la capacità del modello di effettuare ricerche web o verificare le informazioni, riducendo così la probabilità di tali situazioni.

Leggi anche:

Commenti

Più recente

In questa foto illustrativa scattata il 15 settembre 2017, il simbolo dell'app Telegram appears on...

Telegram serve come piattaforma per operazioni commerciali clandestine per le organizzazioni criminali in tutto il Sud-Est asiatico, secondo l'affermazione dell'ONU.

I sindacati criminali del SudEst Asiatico utilizzano in modo significativo l'applicazione di messaggistica Telegram, ciò ha determinato un significativo cambiamento in come gestiscono operazioni illecite su larga scala, come si legge in una nota delle Nazioni Unite del lunedì.

Iscritti Pubblico