Aller au contenu

Chine appliquera la loyalisation de l'IA

Je continuerai à apprendre

Un procédé d'échantillonnage évalue des Modèles de Langues Importants (MLI) sur une série entière...
Un procédé d'échantillonnage évalue des Modèles de Langues Importants (MLI) sur une série entière de questions.

Chine appliquera la loyalisation de l'IA

La Chine alignera politiquement ses robots-conversations AI. La puissante administration régulatrice des médias internet chinois examine si les technologies d'Alibaba et d'autres respectent les "valeurs socialistes". Le procédure est longue et constitue un défi pour les entreprises.

La puissante administration régulatrice des médias internet chinois, l'Administration du cyberespace de la Chine (CAC), considère les modèles de langue AI des principales entreprises technologiques chinoises comme une gêne. En conséquence, la CAC contraint Bytedance, propriétaire de TikTok, et Alibaba, le géant du commerce en ligne, à subir une inspection gouvernementale obligatoire de leurs modèles. Selon le "Financial Times", cette information vient de multiples sources impliquées dans le processus.

Le but est de s'assurer que les systèmes "reflètent les valeurs socialistes". Un échantillonnage examine les modèles de langue géants (LLM) sur une gamme large de questions. Beaucoup de ces questions traitent de sujets politiquement sensibles et du Président Xi Jinping. La CAC envoie une équipe spécialisée dans les entreprises pour tester les robots-conversations AI, rapporte un employé du Financial Times d'une entreprise AI de Hangzhou. Le premier essai a échoué pour des raisons inconnues. "Il faut quelque temps pour spéculer et adapter. Nous avons réussi la deuxième fois, mais le processus a duré plusieurs mois", déclare l'anonyme.

Le processus d'approbation strict a poussé les entreprises chinoises AI à apprendre rapidement à censurer efficacement leurs propres modèles de langue. "Notre modèle de base est très, très dépourvu de restrictions, donc le filtrage de sécurité est extrêmement important", cite le journal le travailleur d'une entreprise de pointe en AI à Beijing. Cela commence par la séparation de l'information problématique des données d'entraînement et la création d'une base de données de mots-clés sensibles. En février de cette année, la Chine a publié des directives pour les entreprises AI. Elles stipulent que des milliers de mots-clés et de questions sensibles doivent être collectés et mis à jour hebdomadairement.

Les utilisateurs des robots-conversations AI chinois ne reçoivent pas de réponse à des questions sensibles, telles que la Tiananmen Square Massacre. Au lieu de cela, ils sont soit posées une question différente soit reçoivent la réponse : "Je n'ai encore appris comment répondre à cette question. Je continuerai à apprendre pour vous servir mieux." Les experts en IA disent que cela pose des défis significatifs pour les développeurs, car ils doivent contrôler le texte généré par les LLMs et les réponses générées par les robots-conversations. "Ils ajoutent une couche supplémentaire pour remplacer la réponse en temps réel", cite le Financial Times Huan Li, qui a développé le Chatbot Chatie.IO. Cela signifie : Une réponse non conforme est générée et jouée initialement, mais disparaît rapidement ensuite.

Pour tenir sa population politiquement alignée, Beijing a introduit son propre robots-conversations AI, basé sur un nouveau modèle de philosophie politique d'Xi Jinping. Cependant, selon le Financial Times, la Chine veut éviter que les LLMs évitent tous les sujets politiques. La CAC a limité le nombre de questions que les LLMs peuvent rejeter durant les tests, un employé de l'industrie technologique aidant les entreprises dans le processus raconte au journal. Les normes introduites au début de l'année stipulent que les LLMs ne doivent pas rejeter plus de cinq pour cent des questions posées à eux.

La surveillance étendue de l'Administration du cyberespace de la Chine (CAC) n'est pas réservée à Bytedance et Alibaba ; d'autres grandes entreprises technologiques chinoises, telles que celles qui utilisent des technologies Artificielles Intelligence, sont également soumises à des examens similaires. Alignement avec la "valeurs socialistes" de la CAC, elle veille à ce que les modèles d'IA développés en Chine, y compris ceux d'Alibaba, ne dévient pas de l'idéologie politique.

Lire aussi:

commentaires

Dernier

Sur cette photo illustrative prise le 15 septembre 2017, l'icône de l'application Telegram est...

Telegram sert de plateforme pour les opérations commerciales clandestines des syndicats criminels à travers l'Asie du Sud-Est, selon l'affirmation de l'ONU.

Les syndicats du crime organisé en Asie du Sud-Est utilisent étroitement l'application de messagerie Telegram, ce qui a entraîné un glissement important dans la manière dont ils opèrent dans des activités illicites à grande échelle, selon un communiqué émis par les Nations unies le...

Membres Publique
Rodrigo Duterte, le président des Philippines, prononce un discours lors d'une réunion organisée à...

L'ancien président philippin Duterte a l'intention de se présenter à la présidence de la ville, en ignorant son passé controversé de campagne contre la drogue.

Dans un coup de théâtre inattendu, l'ancien président philippin Rodrigo Duterte a annoncé son intention de briguer le poste de maire dans le district sud de sa ville natale, malgré l'enquête en cours de la Cour pénale internationale concernant sa célèbre campagne contre la drogue, que certains...

Membres Publique