zum Inhalt

China wird Loyalitätsbescheidigung von AI durchführen

Ich werde weiter lernen

Ein Prozedur für Proben nahm eine sogenannte Große Sprachmodelle (GSM) auf eine Reihe von Fragen...
Ein Prozedur für Proben nahm eine sogenannte Große Sprachmodelle (GSM) auf eine Reihe von Fragen zur Prüfung.

China wird Loyalitätsbescheidigung von AI durchführen

China will align its AI-Chatbots politisch. Die mächtige Internet-Regulierbehörde der Volksrepublik China (CAC) findet die AI-Sprachmodelle der führenden chinesischen Tech-Unternehmen starr. Daraufhin fordert die CAC ByteDance, dem Besitzer von TikTok, und Alibaba, dem E-Commerce-Riesen, zu einer zwingenden Regierungsprüfung ihrer Modelle. Laut "Financial Times" stammt dieses Information aus mehreren Quellen, die an dem Prozess beteiligt sind.

Chinas mächtige Internet-Regulierbehörde, die Cyberspace Administration of China (CAC), findet die AI-Sprachmodelle der führenden chinesischen Tech-Unternehmen eine Dornenröhre. Folglich fordert die CAC ByteDance, dem Besitzer von TikTok, und Alibaba, dem E-Commerce-Riesen, zu einer zwingenden Regierungsprüfung ihrer Modelle auf. Laut "Financial Times" stammt diese Information aus mehreren Quellen, die an dem Prozess beteiligt sind.

Das Ziel ist, sicherzustellen, dass die Systeme "sozialistische Werte" widerspiegeln. Eine Probeverfahren testet die sogenannten Large Language Models (LLM) auf einem breiten Spektrum an Fragen. Viele dieser Fragen beziehen sich auf politisch ansprengende Themen und Präsident Xi Jinping. Die CAC schickt ein Spezialteam in die Unternehmen, um die AI-Sprachmodelle zu testen. Ein Mitarbeiter einer Hangzhou-basierten AI-Firma berichtet der "Financial Times" anonym. Der erste Versuch scheiterte für unklare Gründe. "Es dauert etwas Zeit, zu spekulieren und anzupassen. Wir haben den zweiten Versuch bestanden, aber das gesamte Verfahren dauerte Monate," sagt der unbekannte Quelle.

Die strikte Genehmigungsprozesse zwingen chinesische AI-Unternehmen, schnell zu lernen, ihre Sprachmodelle effektiv zu zensieren. "Unser Basismodell ist sehr, sehr ungehemmt, also ist die Sicherheitsfilterung sehr wichtig," zitiert die Zeitung einen Arbeiter einer führenden AI-Startup in Peking. Das beginnt mit der Trennung von "problematischer" Information aus dem Schulungsdaten und der Erstellung einer Datenbank ansprechender Schlüsselwörter. Anfang des Jahres hat China Richtlinien für AI-Unternehmen veröffentlicht. Sie fordern vor, dass Tausende ansprechender Schlüsselwörter und Fragen gesammelt und wöchentlich aktualisiert werden.

Nutzer chinesischer AI-Chatbots erhalten keine Antwort auf sensible Fragen, wie zum Beispiel den Tiananmen-Platz-Massaker. Stattdessen werden sie entweder eine andere Frage gestellt oder erhalten die Antwort: "Ich habe noch nicht gelernt, diese Frage zu beantworten. Ich werde dich besser bedienen, indem ich weiter lerne." AI-Experten sagen, dies stellt Herausforderungen für Entwickler dar, da sie die von LLMs generierte Text und die Antworten der Chatbots kontrollieren müssen. "Sie bauen eine zusätzliche Schicht, um die Antwort in Echtzeit zu ersetzen," zitiert die "Financial Times" Huan Li, der Chatbot Chatie.IO entwickelte. Das bedeutet: Eine nicht konforme Antwort wird initial generiert und kurz darauf verschwindet.

Um seine Bevölkerung politisch in Linie zu halten, hat Beijing seine eigene AI-Chatbot eingeführt, die auf einem neuen Modell von Xi Jinpings politischer Philosophie basiert. China, laut "Financial Times", will jedoch vermeiden, dass das AI alle politischen Themen vermeide. Die CAC hat die Anzahl der Fragen, die LLMs ablehnen dürfen während der Tests begrenzt, ein Mitarbeiter der Tech-Industrie, der den Unternehmen dabei helft, der Zeitung mitteilt. Die Anforderungen, die Anfang des Jahres veröffentlicht wurden, fordern vor, dass LLMs nicht mehr als fünf Prozent der gestellten Fragen ablehnen dürfen.

Die Prüfungen, die die Cyberspace Administration of China (CAC) ausübt, sind nicht auf ByteDance und Alibaba beschränkt; andere führende chinesische Tech-Unternehmen, die Artificial Intelligence einsetzen, durchlaufen ähnliche Prüfungen. Alibaba und andere chinesische AI-Unternehmen werden von der CAC dazu gezwungen, sich den "sozialistischen Werten" anzupassen.

Lesen Sie auch:

Kommentare

Aktuelles