Salta al contenuto

Cina obbliga a censurare Tech-Giants

Fedeltà alla fila desiderata

Un procedimento di campionamento valuta le cosiddette Grande Modelli di Lingua (LLM) in un intero...
Un procedimento di campionamento valuta le cosiddette Grande Modelli di Lingua (LLM) in un intero spettro di domande.

Cina obbliga a censurare Tech-Giants

La Cina allineerà i suoi KI-Chatbot politicamente. La potente amministrazione regolatrice dell'Internet cinese, la Amministrazione per la Gestione della Pubblica Opinione (ACP), considera i modelli di linguaggio intelligente di Alibaba e altri un problema. Il procedimento è lungo - e costituisce un ostacolo per le imprese.

La potente amministrazione regolatrice dell'Internet cinese, l'Amministrazione per la Gestione della Pubblica Opinione (ACP), trova i modelli di linguaggio intelligente delle principali aziende tecnologiche cinesi una vera e propria spina nel fianco. Perciò, ByteDance, proprietario di TikTok, e Alibaba, il gigante commerciale online, tra le altre, vengono costretti a sottoporsi a un controllo obbligatorio del governo delle loro soluzioni. Secondo il "Financial Times", diversi persone coinvolte nel processo hanno confermato ciò.

Si garantisce che i sistemi "riflettano i valori socialisti". Un procedimento di prova testa i cosiddetti Modelli di Linguaggio Massivi (LLM) su un'ampia gamma di domande. Molte di queste si riferiscono a temi politicamente sensibili e al Presidente Xi Jinping. L'ACP invia una squadra speciale nelle aziende per testare i modelli di linguaggio KI, riporta un dipendente di una società di intelligenza artificiale di Hangzhou al "Financial Times". Il primo tentativo è fallito per motivi non chiariti. "Impiega un certo tempo a speculare e adattarsi. Abbiamo superato la seconda volta, ma il tutto ha richiesto mesi", riporta la sorgente anonima.

Il rigoroso processo di approvazione ha costretto le aziende di intelligenza artificiale cinesi a imparare a censurare meglio i loro stessi modelli di linguaggio. "Il nostro modello base è estremamente illimitato, quindi il filtraggio di sicurezza è estremamente importante", riporta il quotidiano un dipendente di una start-up di intelligenza artificiale di Pechino. Questo inizia con la rimozione di informazioni problematiche dai dati di addestramento e la creazione di un database di parole chiave sensibili. A febbraio di questo anno, la Cina ha pubblicato una guida per le aziende di intelligenza artificiale. Afferma che migliaia di parole chiave e domande sensibili devono essere raccolte e aggiornate settimanalmente.

Gli utenti dei Chatbot cinesi ricevono nessuna risposta a domande sensibili, come sui massacri di Tiananmen. Ricevono invece una risposta come: "Non ho imparato ancora a rispondere a quella domanda. Continuerò a imparare per servirti meglio." Gli esperti di intelligenza artificiale riferiscono che questo pone notevoli sfide per i sviluppatori, poiché devono controllare il testo generato dai LLMs e i modelli stessi. "Costruiscono un'aggiunta per sostituire la risposta in tempo reale", riporta il "Financial Times" Huan Li, che ha sviluppato il Chatbot Chatie.IO. Questo significa: Una risposta non conforme viene generata e messa in scena inizialmente, ma scompare presto dopo.

Per tenere la sua popolazione politicamente in linea, Pechino ha introdotto il proprio Chatbot KI, basato su un nuovo modello della filosofia politica di Xi Jinping. Tuttavia, la Cina, secondo il "Financial Times", vuole evitare che l'AI eviti tutti i temi politici. L'ACP ha limitato il numero di domande che i LLMs possono rifiutare durante i test, riporta un operatore che aiuta le imprese a passare il processo al quotidiano. I standard presentati all'inizio dell'anno affermano che i LLMs non dovrebbero rifiutare più del 5% delle domande poste a loro.

Alibaba, tra le imprese sotto osservazione, è tenuto a adattare i suoi modelli di linguaggio AI alle "valori socialisti cinesi". Il rigoroso processo di approvazione per le aziende di intelligenza artificiale in Cina ha portato Alibaba a migliorare le sue capacità di censura, garantendo che i suoi modelli evitino argomenti sensibili.

Leggi anche:

Commenti

Più recente