Salta al contenuto

Cina farà applicare la fedeltà all'AI

continuerò a imparare

Un procedimento di campionamento valuta modelli di lingua chiamati Modelli di Lingua Massivi (LLM)...
Un procedimento di campionamento valuta modelli di lingua chiamati Modelli di Lingua Massivi (LLM) in un insieme di domande."}

Cina farà applicare la fedeltà all'AI

La Cina allineerà politicamente le sue AI-Chatbot di Alibaba e di altre società. La potente amministrazione internet regolatrice cinese, la Amministrazione cinese per la gestione della rete (CAC), trova i modelli di linguaggio automatizzato (LLM) delle principali società tecnologiche cinesi un sasso nel piede. Come risultato, la CAC costringe ByteDance, il proprietario di TikTok, e Alibaba, il gigante commerciale, a sottoporsi a controlli governativi obbligatori dei loro modelli.

Secondo la "Financial Times", questa informazione proviene da fonti multiple coinvolte nel processo.

La CAC vuole assicurarsi che i sistemi "riflettano i valori socialisti". Un procedimento di campionamento testa i LLM su un ampio spettro di domande. Molte di queste domande riguardano argomenti politicamente sensibili e il Presidente Xi Jinping. La CAC invia una squadra specializzata nelle aziende per testare i modelli AI-Chatbot, segnala un dipendente di una società di intelligenza artificiale di Hangzhou. Il primo tentativo è fallito per ragioni non chiarite. "Può prendere qualche tempo per ipotizzare e adattarsi. Abbiamo superato il secondo tentativo, ma il processo ha richiesto mesi", dice l'informante anonimo.

Il rigoroso processo di approvazione ha costretto le società cinesi di intelligenza artificiale a imparare a censurare efficacemente i loro modelli di linguaggio. "Il nostro modello base è estremamente illimitato, quindi il filtraggio di sicurezza è estremamente importante", citano il quotidiano un operatore di una start-up di intelligenza artificiale di Pechino. Questo inizia con la separazione di informazioni problematiche dai dati di addestramento e la creazione di una database di parole chiave sensibili. A febbraio di questo anno, la Cina ha pubblicato linee guida per le società di intelligenza artificiale. Esse affermano che migliaia di parole chiave e domande sensibili devono essere raccolte e aggiornate settimanalmente.

Gli utenti dei Chatbot cinesi non ricevono una risposta a domande sensibili, come la strage di Tienanmen. Al loro posto ricevono una domanda differente o la risposta: "Non sono ancora in grado di rispondere a questa domanda. Continuerò a imparare per servirti meglio". Gli esperti di intelligenza artificiale affermano che questo pone notevoli sfide per i sviluppatori, poiché devono controllare il testo generato dai LLMs e le risposte generate dai Chatbot. "Costruiscono un aggiungendo un livello per sostituire la risposta in tempo reale", citano il quotidiano Huan Li, che ha sviluppato il Chatbot Chatie.IO. Questo significa: Una risposta non conforme viene generata e gioca inizialmente, ma scompare presto.

Per tenere la propria popolazione politicamente in linea, Pechino ha introdotto il proprio Chatbot AI basato su una nuova filosofia politica di Xi Jinping. Tuttavia, la Cina, secondo la "Financial Times", vuole evitare che l'AI eviti tutti i temi politici. La CAC ha limitato il numero di domande che i LLMs possono rifiutare durante i test, un dipendente dell'industria tecnologica che aiuta le aziende nel processo racconta al quotidiano. I standard introdotte all'inizio dell'anno affermano che i LLMs non dovrebbero rifiutare più del 5% delle domande poste a loro.

La sorveglianza estesa da parte dell'Amministrazione cinese per la gestione della rete (CAC) non è esclusiva a ByteDance e Alibaba; altre società tecnologiche cinesi, come quelle che utilizzano l'Intelligenza artificiale, stanno affrontando processi simili. Alineando con la filosofia politica socialista cinese, la CAC è determinata a assicurarsi che i modelli AI sviluppati in Cina, tra cui quelli di Alibaba, non deviano dalla ideologia politica.

Leggi anche:

Commenti

Più recente