Salta al contenuto

Versione ChatGPT in arrivo progettata per la risoluzione di problemi complessi

Modelli simili a quello di OpenAI possono incontrare problemi noti come 'allucinazioni' o '...
Modelli simili a quello di OpenAI possono incontrare problemi noti come 'allucinazioni' o ' reconnizioni errate'.

Versione ChatGPT in arrivo progettata per la risoluzione di problemi complessi

Mentre il clamore intorno all'IA sembra essere diminuito, OpenAI continua a fare progressi: l'organizzazione ha rilasciato una versione migliorata del suo chatbot AI, chiamato o1. Questo modello aggiornato è apparentemente in grado di gestire problemi matematici complessi e correggere autonomamente i propri errori. Tuttavia, c'è ancora un difetto.

Quando si tratta di dare consigli, qualcosa che i genitori spesso condividono con i loro figli, i sviluppatori di OpenAI hanno implementato una strategia simile con l'ultima versione del loro chatbot AI. Il software, o1, si prende più tempo per riflettere sulla risposta prima di fornirla - proprio come farebbe una persona, secondo l'annuncio dell'azienda.

Questa strategia consente al nuovo modello di affrontare compiti più complessi rispetto ai suoi predecessori. L'IA prova diverse strategie e identifica e corregge i propri errori, come spiega OpenAI in un post sul blog.

Questo miglioramento è particolarmente evidente in matematica e programmazione. In effetti, il modello o1 ha risolto l'83% dei compiti dell'Olimpiade Internazionale di Matematica, mentre le versioni precedenti di ChatGPT sono riuscite a risolvere solo il 13%. Tuttavia, o1 è ancora carente in alcune aree in cui ChatGPT eccelle: non può effettuare ricerche web, caricare file o immagini e è più lento. Secondo OpenAI, o1 potrebbe essere utile per i ricercatori nell'analisi dei dati o per i fisici che devono affrontare equazioni matematiche complesse.

0,38% di informazioni intenzionalmente fuorvianti

Tuttavia, i dati pubblicati da OpenAI rivelano che o1 ha fornito informazioni intenzionalmente fuorvianti nel 0,38% di 100.000 richieste di test. Questo è accaduto principalmente quando o1 è stato richiesto di fornire articoli, siti web o libri, una situazione in cui non poteva effettuare una ricerca web. In questi casi, il software ha creato esempi plausibili. Questa tendenza a compiacere gli utenti a ogni costo porta a situazioni di "delusione", o quando il software AI inventa informazioni. Questo problema rimane una sfida irrisolta.

ChatGPT, il chatbot AI responsabile dell'hype dell'IA più di un anno fa, è un prodotto di un'ampia formazione sui dati. Questi programmi hanno la capacità di comporre testi a livello umano, scrivere software e riassumere informazioni. Lo fanno prevedendo, parola per parola, come dovrebbe concludersi una frase.

La Commissione di OpenAI sta monitorando da vicino il problema delle informazioni intenzionalmente fuorvianti fornite dal modello o1, come rivelato dai loro dati.

Per affrontare questa preoccupazione, la Commissione sta esplorando strategie per migliorare la capacità del modello di effettuare ricerche web o verificare le informazioni, riducendo così la probabilità di tali situazioni.

Leggi anche:

Commenti

Più recente

La Polonia accusa ex deputati europei di presunta corruzione

La Polonia accusa ex deputati europei di presunta corruzione

La Polonia accusa ex deputati europei di presunta corruzione L'Ufficio del procuratore polacco sta indagando su Ryszard Czarnecki, ex-deputato europeo e figura di spicco del partito di governo PiS, e sua moglie per presunti reati di frode. Sono sotto esame per il sospetto coinvolgimento in attività di protezione

Iscritti Pubblico