China advirtió este martes de los riesgos que entraña lo que llama "contaminación de datos" en los sistemas de inteligencia artificial (IA) e instó a las empresas tecnológicas a reforzar los controles sobre la información con la que entrenan sus modelos.
Un comunicado publicado por el Ministerio de Seguridad del Estado en su cuenta oficial en la red social WeChat sostiene que la proliferación de textos, imágenes y vídeos creados por IA está elevando la probabilidad de que material "falseado, sesgado o repetitivo" se incorpore a nuevos conjuntos de entrenamiento, lo que podría derivar en errores de juicio, "decisiones automáticas equivocadas" o "manipulación de la opinión pública".
Las autoridades citan estudios según los cuales bastaría con que una de cada 10.000 muestras fuese falsa para que el volumen de respuestas "nocivas" de un modelo aumentara de forma perceptible.
Ese "efecto cascada", en el que un contenido generado artificialmente pasa a alimentar otro sistema, preocupa a los responsables de sectores sensibles como la sanidad, las finanzas o la seguridad pública, donde decisiones basadas en datos inexactos tendrían repercusiones directas sobre la población, alertó el ministerio.
Para mitigar esos riesgos, la cartera recordó que desde enero está en vigor un reglamento que obliga a las plataformas de IA generativa a realizar auditorías de seguridad, "marcar claramente" los contenidos creados mediante IA y suprimir de forma periódica la información que vulnere las normas.
El organismo estatal ya advirtió el pasado julio de los riesgos que representa el uso de la IA, que podrían convertirse en una amenaza para la "estabilidad social", la protección de datos sensibles y la seguridad nacional si caen en manos de "fuerzas hostiles a China".
Desde 2023 China obliga a que los servicios de IA se ajusten a "los valores socialistas fundamentales" y prohíbe "generar contenidos que atenten contra la seguridad nacional, la unidad territorial y la estabilidad social".
Aunque gigantes digitales chinos como Alibaba, DeepSeek, Tencent o ByteDance han lanzado sus propios ‘chatbots’, persisten dudas sobre el desarrollo de esta tecnología en un entorno sometido a una estricta censura.
Desde 2023, el Ministerio de Seguridad del Estado publica en su cuenta de WeChat casos de espionaje y aconseja a la población desconfiar de ofertas de empleo o solicitudes de información procedentes del extranjero.
Al mismo tiempo, insta a una "movilización de toda la sociedad" para "prevenir y combatir el espionaje" y "reforzar la defensa nacional", advirtiendo de los riesgos que supone compartir datos sensibles en internet.
Fuente: EFE