China obliga a Tech-Giants a la censura
China realizará la alineación política de sus KI-Chatbots de China. La poderoso organismo regulatorio de Internet de China está examinando si las tecnologías de Alibaba y otras cumplen con "valores socialistas". El procedimiento es largo - y presenta desafíos para las empresas.
La poderosa administración de Internet de China, la Administración de Ciberespacio de China (ACC), considera a los modelos de lenguaje inteligente (ILM) de las principales empresas tecnológicas chinas una molestia. Por lo tanto, ByteDance, propietario de TikTok, y Alibaba, el gigante comercial en línea, entre otras, se encuentran obligadas a someterse a una revisión obligatoria del gobierno. Según informa el "Financial Times", varias personas involucradas en el proceso han informado de esto.
Se garantiza que los sistemas "reflejen valores socialistas". Un procedimiento de prueba examina a los llamados ILM en un amplio rango de preguntas. Muchas de ellas se relacionan con temas políticamente sensibles y el presidente Xi Jinping. La ACC envía a un equipo especial a las empresas para probar los KI-Chatbots, informa un empleado de una empresa de IA de Hangzhou al "Financial Times". El primer intento falló por razones inexplicadas. "Tiene que tomar cierta tiempo para especular y adaptarse. Pasamos la segunda vez, pero el procedimiento duró meses", informa la fuente anónima.
El riguroso proceso de aprobación forzó a las empresas de IA chinas a aprender rápidamente cómo censurar mejor sus propios modelos de lenguaje. "Nuestro modelo básico es muy, muy desinhibido, por lo que el filtrado de seguridad es extremadamente importante", cita el periódico a un empleado de una startup de IA líder en Beijing. Esto comienza con la eliminación de información problemática de los datos de entrenamiento y la creación de una base de datos de palabras clave sensibles. En febrero de este año, China publicó una guía para las empresas de IA. Indica que se deben recolectar y actualizar milagrosas palabras clave y preguntas semanalmente.
Los usuarios de los Chatbots de IA de China no reciben respuesta a preguntas sensibles, como sobre la Masacre de Tiananmen. Reciben en cambio la respuesta: "Aún no he aprendido cómo responder a esa pregunta. Continuaré aprendiendo para servirte mejor." Los expertos en IA informan que esto presenta desafíos significativos para los desarrolladores, ya que deben controlar el texto generado por ILMs y los modelos mismos. "Construyen una capa adicional para reemplazar la respuesta en tiempo real", cita el "Financial Times" a Huan Li, quien desarrolló el Chatbot Chatie.IO. Esto significa: Se genera una respuesta no conforme e inicialmente se juega, pero desaparece rápidamente.
Para mantener a su población políticamente en línea, Beijing ha introducido su propio KI-Chatbot, basado en un nuevo modelo de filosofía política de Xi Jinping. Sin embargo, China, según el "Financial Times", quiere evitar que la IA evite todos los temas políticos. La ACC ha limitado el número de preguntas que los ILMs pueden rechazar durante las pruebas, informa un trabajador que ayuda a las empresas a travesar el proceso al periódico. Los estándares presentados al comienzo del año indican que los ILMs no deben rechazar más del 5% de las preguntas que se les hacen.
Alibaba, una de las empresas bajo vigilancia, se encuentra obligada a ajustar sus modelos de lenguaje inteligente para adaptarse a los "valores socialistas" de China. El riguroso proceso de aprobación para las empresas de IA en China ha llevado a Alibaba a mejorar sus capacidades de censura, asegurándose de que sus modelos eviten temas sensibles.
Lea también:
- Las ventas de los fabricantes alemanes de automóviles se debilitan
- Emoción por el horario laboral: ¿grabación o flexibilidad?
- Las ofertas anticipadas del Black Friday de Walmart se han puesto hoy en marcha
- Escalada del conflicto: Putin insiste en que Kiev se retire de cuatro regiones y rechace el ingreso en la OTAN