Chine appliquera la loyalisation de l'IA
La Chine alignera politiquement ses robots-conversations AI. La puissante administration régulatrice des médias internet chinois examine si les technologies d'Alibaba et d'autres respectent les "valeurs socialistes". Le procédure est longue et constitue un défi pour les entreprises.
La puissante administration régulatrice des médias internet chinois, l'Administration du cyberespace de la Chine (CAC), considère les modèles de langue AI des principales entreprises technologiques chinoises comme une gêne. En conséquence, la CAC contraint Bytedance, propriétaire de TikTok, et Alibaba, le géant du commerce en ligne, à subir une inspection gouvernementale obligatoire de leurs modèles. Selon le "Financial Times", cette information vient de multiples sources impliquées dans le processus.
Le but est de s'assurer que les systèmes "reflètent les valeurs socialistes". Un échantillonnage examine les modèles de langue géants (LLM) sur une gamme large de questions. Beaucoup de ces questions traitent de sujets politiquement sensibles et du Président Xi Jinping. La CAC envoie une équipe spécialisée dans les entreprises pour tester les robots-conversations AI, rapporte un employé du Financial Times d'une entreprise AI de Hangzhou. Le premier essai a échoué pour des raisons inconnues. "Il faut quelque temps pour spéculer et adapter. Nous avons réussi la deuxième fois, mais le processus a duré plusieurs mois", déclare l'anonyme.
Le processus d'approbation strict a poussé les entreprises chinoises AI à apprendre rapidement à censurer efficacement leurs propres modèles de langue. "Notre modèle de base est très, très dépourvu de restrictions, donc le filtrage de sécurité est extrêmement important", cite le journal le travailleur d'une entreprise de pointe en AI à Beijing. Cela commence par la séparation de l'information problématique des données d'entraînement et la création d'une base de données de mots-clés sensibles. En février de cette année, la Chine a publié des directives pour les entreprises AI. Elles stipulent que des milliers de mots-clés et de questions sensibles doivent être collectés et mis à jour hebdomadairement.
Les utilisateurs des robots-conversations AI chinois ne reçoivent pas de réponse à des questions sensibles, telles que la Tiananmen Square Massacre. Au lieu de cela, ils sont soit posées une question différente soit reçoivent la réponse : "Je n'ai encore appris comment répondre à cette question. Je continuerai à apprendre pour vous servir mieux." Les experts en IA disent que cela pose des défis significatifs pour les développeurs, car ils doivent contrôler le texte généré par les LLMs et les réponses générées par les robots-conversations. "Ils ajoutent une couche supplémentaire pour remplacer la réponse en temps réel", cite le Financial Times Huan Li, qui a développé le Chatbot Chatie.IO. Cela signifie : Une réponse non conforme est générée et jouée initialement, mais disparaît rapidement ensuite.
Pour tenir sa population politiquement alignée, Beijing a introduit son propre robots-conversations AI, basé sur un nouveau modèle de philosophie politique d'Xi Jinping. Cependant, selon le Financial Times, la Chine veut éviter que les LLMs évitent tous les sujets politiques. La CAC a limité le nombre de questions que les LLMs peuvent rejeter durant les tests, un employé de l'industrie technologique aidant les entreprises dans le processus raconte au journal. Les normes introduites au début de l'année stipulent que les LLMs ne doivent pas rejeter plus de cinq pour cent des questions posées à eux.
La surveillance étendue de l'Administration du cyberespace de la Chine (CAC) n'est pas réservée à Bytedance et Alibaba ; d'autres grandes entreprises technologiques chinoises, telles que celles qui utilisent des technologies Artificielles Intelligence, sont également soumises à des examens similaires. Alignement avec la "valeurs socialistes" de la CAC, elle veille à ce que les modèles d'IA développés en Chine, y compris ceux d'Alibaba, ne dévient pas de l'idéologie politique.