zum Inhalt

China erzwingt Tech-Giants zur Zensur

Linientreue gewünscht

Eine Probeverfahren prüft sogenannte Große Sprachmodelle (LLM) auf eine ganze Reihe von Fragen.
Eine Probeverfahren prüft sogenannte Große Sprachmodelle (LLM) auf eine ganze Reihe von Fragen.

China erzwingt Tech-Giants zur Zensur

China will align its KI-Chatbots politisch. Das mächtige Internet-Regulierungsamt der Volksrepublik China (CAC) findet die KI-Sprachmodelle der führenden chinesischen Tech-Unternehmen starr und prüft daher ByteDance, den Besitzer von TikTok, und Alibaba, den E-Commerce-Riesen, sowie andere, ihre Modelle durch die Regierung zu überprüfen.

Chinas mächtiges Internet-Regulierungsamt, das Cyberspace Administration of China (CAC), findet die KI-Sprachmodelle der führenden chinesischen Tech-Unternehmen eine Stachel in die Augen. Deshalb müssen ByteDance, der Besitzer von TikTok, und Alibaba, der E-Commerce-Gigant, sowie andere, ihre Modelle einer Pflichtprüfung durch die Regierung unterziehen, wie der "Financial Times" berichtet. Laut Angaben von Beteiligten am Prozess soll dies geschehen.

Es wird sichergestellt, dass die Systeme "sozialistische Werte" widerspiegeln. Ein Probeverfahren testet die sogenannten Large Language Models (LLM) auf einem breiten Spektrum an Fragen. Viele von diesen beziehen sich auf politisch sensible Themen und Präsident Xi Jinping. Das CAC schickt eine Sondermannschaft in die Unternehmen, um die KI-Sprachmodelle zu testen, berichtet ein Mitarbeiter einer Hangzhou-basierten AI-Firma dem "Financial Times". Der erste Versuch scheiterte für unbekannte Gründe. "Es dauert eine gewisse Zeit, um zu spekulieren und anzupassen. Wir haben das zweite Mal bestanden, aber das gesamte Verfahren dauerte Monate", berichtet der anonyme Quelle.

Die strikte Genehmigungsprozedur zwang die chinesischen AI-Unternehmen, schnellstmöglich zu lernen, ihre eigenen Sprachmodelle am besten zu zensieren. "Unser Grundmodell ist sehr, sehr ungehemmt, also ist die Sicherheitsfilterung sehr wichtig", zitiert die Zeitung einen Mitarbeiter einer führenden AI-Startup in Beijing. Das beginnt mit der Trennung von "problematischer" Information aus den Schulungsdaten und der Erstellung einer Datenbank von sensiblen Schlüsselwörtern. Im Februar dieses Jahres hat China ein Leitfaden für AI-Unternehmen veröffentlicht. Er fordert auf, tausende sensibler Schlüsselwörter und Fragen zu sammeln und wöchentlich aktualisieren.

Nutzer chinesischer AI-Chatbots erhalten keine Antwort auf sensible Fragen, wie zum Beispiel zur Tiananmen-Platz-Massaker. Sie werden entweder aufgefordert, eine andere Frage zu stellen oder erhalten die Antwort: "Ich habe noch nicht gelernt, diese Frage beantworten zu können. Ich werde weiter lernen, Ihnen besser zu dienen." AI-Experten berichten, dass dies für Entwickler bedeutende Herausforderungen bereitet, da sie die von LLMs generierte Text und die Modelle selbst kontrollieren müssen. "Sie bauen eine zusätzliche Schicht, um die Antwort in Echtzeit zu ersetzen", zitiert die "Financial Times" Huan Li, der Chatbot Chatie.IO entwickelte. Das bedeutet: Eine nicht konforme Antwort wird initial generiert und ausgegeben, aber kürzlich danach verschwindet.

Um seine Bevölkerung politisch in Linie zu halten, hat Beijing seine eigene KI-Chatbot eingeführt, der auf einem neuen Modell von Xi Jinpings politischer Philosophie basiert. China, wie der "Financial Times" berichtet, will jedoch vermeiden, dass das AI alle politischen Themen umgeht. Das CAC hat die Anzahl der Fragen, die LLMs ablehnen dürfen, während der Tests begrenzt, berichtet ein Mitarbeiter, der den Tech-Unternehmen behilflich ist, der Zeitung. Die Anforderungen, die im Januar des Jahres vorgestellt wurden, fordern auf, dass LLMs nicht mehr als fünf Prozent der befragten Fragen ablehnen sollen.

Alibaba, eines der Unternehmen, das untersucht wird, muss seine AI-Sprachmodelle an die chinesischen "sozialistischen Werte" anpassen. Die strikte Genehmigungsprozedur für AI-Unternehmen in China hat Alibaba dazu gezwungen, seine Zensurfähigkeiten zu verbessern, um sicherzustellen, dass seine Modelle sensitive Themen vermeiden.

Lesen Sie auch:

Kommentare

Aktuelles