Chine oblige les Géants du numérique à la censure
La Chine alignera politiquement ses robots-conversations KI des sociétés Alibaba et d'autres. La puissante administration régulatrice de l'Internet chinoise examine si les technologies d'Alibaba et d'autres respectent les "valeurs socialistes". Le procédé est long et représente un défi pour les entreprises.
La puissante administration régulatrice de l'Internet chinoise, l'Administration du cyberespace de Chine (ACC), considère les modèles de langue KI des principales sociétés technologiques chinoises, telles que ByteDance, propriétaire de TikTok, et Alibaba, le géant du commerce en ligne, parmi d'autres, comme une épine dans le côté. Selon le "Financial Times", plusieurs personnes impliquées dans le processus ont signalé cela.
Les systèmes "reflètent des valeurs socialistes". Un procédé d'évaluation des modèles de langue massive (MLM) les soumet à une plète gamme de questions. Beaucoup d'entre elles traitent de sujets politiquement sensibles et du Président Xi Jinping. L'ACC envoie une équipe spéciale dans les entreprises pour tester les robots-conversations KI, rapporte un employé d'une entreprise AI de Hangzhou au "Financial Times". Le premier essai a échoué pour des raisons inexpliquées. "Il faut un certain temps pour spéculer et adapter. Nous avons réussi la deuxième fois, mais le tout processus a duré des mois", rapporte la source anonyme.
Le processus d'approbation rigoureux a poussé les entreprises AI chinoises à apprendre rapidement comment censurent les meilleure leurs propres modèles de langue. "Notre modèle de base est très, très dérangement, donc le filtrage de sécurité est extrêmement important", cite le journal un employé d'une entreprise AI de pointe à Beijing. Cela commence par la séparation de l'information problématique des données d'entraînement et la création d'une base de données de mots-clés sensibles. En février de cette année, la Chine a publié un guide pour les entreprises AI. Il stipule que des milliers de mots-clés et de questions sensibles doivent être collectés et mis à jour hebdomadairement.
Les utilisateurs des robots-conversations AI chinois ne reçoivent aucune réponse à des questions sensibles, telles que celles concernant la Place Tiananmen. Ils sont soit invités à poser une autre question soit reçoivent la réponse : "Je n'ai encore appris comment répondre à cette question. Je continuerai à apprendre pour vous servir mieux." Les experts en IA signalent que cela pose des défis significatifs pour les développeurs, car ils doivent contrôler les réponses générées par les MLMs et les modèles eux-mêmes. "Ils créent une couche supplémentaire pour remplacer la réponse en temps réel", cite le "Financial Times" Huan Li, qui a développé le Chatbot Chatie.IO. Cela signifie : Une réponse non conforme est générée et jouée initialement, mais disparaît brièvement par la suite.
Pour tenir sa population politiquement alignée, Beijing a introduit son propre robot-conversations KI, basé sur un nouveau modèle de philosophie politique de Xi Jinping. Cependant, la Chine, selon le "Financial Times", veut éviter que les IA évitent tous les sujets politiques. L'ACC a limité le nombre de questions que les MLMs peuvent rejeter pendant les tests, rapporte un travailleur qui les aide à passer le processus au journal. Les normes présentées au début de l'année disent que les MLMs ne doivent pas rejeter plus de cinq pour cent des questions posées à eux.
Alibaba, entreprise l'une des soumises à l'examen, est obligée d'ajuster ses modèles de langue AI pour se conformer aux "valeurs socialistes" chinoises. Le processus d'approbation rigoureux des entreprises AI en Chine a poussé Alibaba à améliorer ses capacités de censure, ce qui assure que ses modèles évitent des sujets sensibles.