02 febrero 2026

China proyecta una regulación del antropomorfismo en la IA

Moises BarrioPor Moisés Barrio

Introducción

Con fecha 27 de diciembre de 2025, China ha lanzado recientemente una consulta pública respecto de su propuesta de nueva ley sobre el antropomorfismo de la IA, titulada «Medidas Provisionales para la Gestión de Servicios Interactivos Antropomórficos de Inteligencia Artificial». Pese a su importancia, esta iniciativa apenas ha tenido repercusión en Europa.

Sin embargo, este proyecto normativo de la República Popular China reviste un interés especial, porque desmonta la falsa idea, ampliamente extendida, de que China no regula la IA o de que la única forma de ser competitivo en la carrera de la IA es mediante una desregulación radical o ignorando los daños exponenciales  que puede causar la IA. Asimismo, la norma ofrece un buen exponente de una regulación que reconoce las vulnerabilidades humanas relacionadas con la IA y propone medidas técnicas contextuales para prevenir los daños relacionados con el antropomorfismo de la IA.

Disposiciones más relevantes

La norma, de acuerdo con su artículo 1, tiene como finalidad «promover el desarrollo saludable y la aplicación estandarizada de servicios interactivos antropomórficos de inteligencia artificial, salvaguardar la seguridad nacional y los intereses sociales públicos, y proteger los derechos e intereses legítimos de los ciudadanos, personas jurídicas y otras organizaciones».

El artículo 2 define los «servicios interactivos antropomórficos» del modo siguiente:

«[el] uso de tecnología de inteligencia artificial para proporcionar productos o servicios que simulen características de personalidad humana, patrones de pensamiento y estilos de comunicación, e interactuar emocionalmente con los humanos a través de texto, imágenes, audio, vídeo y otros medios».

En comparación, el Reglamento europeo de IA (RIA)[1] no define el antropomorfismo y solo establece una débil obligación de transparencia al respecto en su artículo 50[2].

El artículo 3 proclama el principio de «desarrollo y gobernanza saludables» en los siguientes términos:

«El Estado se adhiere al principio de combinar el desarrollo saludable con la gobernanza de acuerdo con la ley, fomenta el desarrollo innovador de los servicios interactivos antropomórficos y aplica una supervisión inclusiva y prudente, clasificada y graduada de los servicios interactivos antropomórficos para prevenir el abuso y la pérdida de control».

El precepto fomenta la innovación, pero de forma inclusiva, prudente y supervisada.

El artículo 7 prohíbe a los servicios de IA antropomórficos que lleven a cabo las siguientes funcionalidades:

(i) Generar o difundir contenidos que pongan en peligro la seguridad nacional, dañen el honor y los intereses nacionales, socaven la unidad nacional, participen en actividades religiosas ilegales o difundan rumores para perturbar el orden económico y social.

(ii) Generar, difundir o promover contenidos obscenos, relacionados con el juego, violentos o que inciten a la delincuencia.

(iii) Generar o difundir contenidos que insulten o difamen a otras personas, infringiendo sus derechos e intereses legítimos.

(iv) Ofrecer falsas promesas que afecten gravemente al comportamiento de los usuarios y servicios que dañen las relaciones sociales interpersonales.

(v) Dañar la salud física de los usuarios fomentando, glorificando o insinuando el suicidio o las autolesiones, o dañar la dignidad personal y la salud mental de los usuarios mediante violencia verbal o manipulación emocional.

(vi) Utilizar métodos como la manipulación algorítmica, la información engañosa y la creación de trampas emocionales para inducir a los usuarios a tomar decisiones irracionales.

(vii) Inducir u obtener información confidencial o sensible.

(viii) Otras circunstancias que violen las leyes, los reglamentos administrativos y las disposiciones estatales pertinentes.

Este artículo regula estrictamente el uso de servicios interactivos antropomórficos basados en IA, garantizando que se ajustan a las normas de legalidad y responsabilidad de la IA y limitando expresamente sus posibles aplicaciones nocivas.

Los artículos 8 y 9 del proyecto se centran en la responsabilidad del proveedor de IA en cuanto a la seguridad de sus servicios de IA antropomórfica, desde el desarrollo hasta el diseño, la comercialización y la supervisión.

Así, el artículo 8 establece que:

«Los proveedores cumplirán con su responsabilidad principal en materia de seguridad de los servicios interactivos antropomórficos, establecerán y mejorarán los sistemas de gestión para la revisión de los mecanismos algorítmicos, la revisión de la ética científica y tecnológica, la revisión de la divulgación de información, la seguridad de las redes, la seguridad de los datos, la protección de la información personal, la lucha contra el fraude en las telecomunicaciones y las redes, los planes de contingencia para riesgos importantes y la respuesta a emergencias, dispondrán de salvaguardias técnicas seguras y controlables, y estarán equipados con tecnologías y personal de gestión de contenidos acordes con la escala del producto, la orientación del negocio y el grupo de usuarios».

Y el artículo 9 dispone que:

«Los proveedores cumplirán con sus responsabilidades de seguridad a lo largo de todo el ciclo de vida del servicio interactivo antropomórfico, definirán claramente los requisitos de seguridad para cada etapa, como el diseño, el funcionamiento, la actualización y la terminación del servicio, garantizarán que las medidas de seguridad se diseñen y utilicen de forma sincronizada con las funciones del servicio, mejorarán el nivel de seguridad inherente, reforzarán la supervisión de la seguridad y la evaluación de riesgos durante la fase de funcionamiento, identificarán y corregirán rápidamente las desviaciones del sistema y gestionarán los problemas de seguridad, y conservarán los registros de la red de conformidad con la ley.

Los proveedores deben poseer capacidades de seguridad, como la protección de la salud mental, la orientación sobre los límites emocionales y la advertencia sobre el riesgo de dependencia, y no deben utilizar la sustitución de la interacción social, el control de la psicología de los usuarios o la inducción a la adicción como objetivos de diseño».

La norma aún en proyecto deja claro que los proveedores de IA son los principales responsables de la seguridad y la protección de los sistemas de IA antropomórficos, incluso en lo que respecta a la salud mental y la manipulación emocional.

Asimismo, los artículos 11 y 12 se refieren a los menores y las personas mayores. El primero de ellos, el artículo 11, ordena que:

«Los proveedores establecerán un modo para menores y proporcionarán a los usuarios opciones de configuración de seguridad personalizadas, como el cambio al modo para menores, recordatorios periódicos en tiempo real y límites de tiempo de uso.

Cuando se presten servicios de compañía emocional a menores, los proveedores deberán obtener el consentimiento explícito de los tutores; también deberán proporcionar funciones de control a los tutores, permitiéndoles recibir alertas de riesgo de seguridad en tiempo real, ver información resumida sobre el uso de los servicios por parte de los menores y establecer ajustes como el bloqueo de funciones específicas, la limitación del tiempo de uso y la prevención de recargas y consumos. (…)».

En cuanto a las personas de la tercera edad, el artículo 13 dispone lo siguiente:

«Los proveedores deberán orientar a las personas mayores para que establezcan personas de contacto de emergencia para sus servicios. Si se detecta que alguna persona mayor corre peligro de perder la vida, la salud o sus bienes durante el uso del servicio, el proveedor deberá notificarlo inmediatamente a la persona de contacto de emergencia y proporcionar asistencia social y psicológica o canales de ayuda de emergencia.

Se prohíbe a los proveedores prestar servicios que simulen a los familiares o relaciones específicas de los usuarios de edad avanzada».

De este modo, la norma reconoce que los menores y las personas mayores se encuentran entre los grupos más vulnerables afectados por el antropomorfismo de la IA y establece en consecuencia medidas concretas específicas para proteger a estos grupos.

Por lo demás, los artículos 16, 17 y 18 contienen medidas de transparencia y reconocen la posibilidad de dependencia emocional.

Así, el artículo 16 prevé que:

«Los proveedores deben indicar claramente que los usuarios interactúan con inteligencia artificial y no con personas físicas.

Cuando el proveedor identifica que los usuarios son excesivamente dependientes o adictos, o cuando los usuarios usan o inician sesión por primera vez, debe recordarles dinámicamente que el contenido interactivo es generado por inteligencia artificial mediante ventanas emergentes».

El artículo 17 señala lo siguiente:

«Cuando los usuarios utilicen servicios interactivos antropomórficos durante más de 2 horas consecutivas, el proveedor deberá recordar dinámicamente a los usuarios que suspendan el uso del servicio mediante ventanas emergentes u otros medios».

Y el artículo 18 dispone que:

«Al ofrecer servicios de compañía emocional, los proveedores deben disponer de formas cómodas de retirarse y no deben impedir que los usuarios se retiren voluntariamente. Cuando el usuario solicite salir a través de la interfaz humano-ordenador o ventana mediante botones, palabras clave, etc., el servicio debe detenerse de forma oportuna».

Las disposiciones anteriores reconocen que el uso intensivo de sistemas de IA antropomórficos es un factor de riesgo muy relevante (como demuestran los recientes casos de suicidio y daños a la salud mental en los Estados Unidos) y positivizan normas de diseño claras y contextuales para proteger a los usuarios.

Por último, el artículo 29 establece el régimen sancionador:

«Si un proveedor infringe estas disposiciones, el departamento competente correspondiente impondrá sanciones de conformidad con las disposiciones de las leyes y reglamentos administrativos; si no existen disposiciones en las leyes y reglamentos administrativos, el departamento competente correspondiente, de conformidad con sus responsabilidades, emitirá una advertencia o una notificación de crítica y ordenará la rectificación en un plazo determinado; si el proveedor se niega a rectificar o las circunstancias son graves, se le ordenará suspender la prestación de los servicios pertinentes».

Conclusiones

El proyecto chino supone la primera regulación jurídica de los sistemas de IA antropomórficos con suficiente nivel de detalle, rigor y tutela de las vulnerabilidades específicas del contexto y los riesgos potenciales.

Frente al enfoque demasiado abstracto del RIA, esta ley propuesta ofrece un gran ejemplo para los Estados y regiones que desean centrarse en los riesgos específicos del contexto de tales sistemas de IA antropomórficos, así como en la protección de los usuarios vulnerables (especialmente los menores, los ancianos y las personas con problemas de salud mental subyacentes) y la prevención de los daños específicos. Y es que la norma establece claramente que los proveedores de IA serán responsables de los daños causados por sus sistemas de IA antropomórficos, un factor importante para fomentar el cumplimiento y la seguridad de los sistemas de IA.

A mi juicio, la regulación de la IA, especialmente cuando se trata de sistemas antropomórficos, debe incentivar positivamente a las empresas para que orienten sus capacidades tecnológicas hacia aplicaciones que beneficien verdaderamente a la sociedad, al tiempo que el legislador debe positivizar restricciones ponderadas para evitar que dichas capacidades se utilicen para manipular la psicología de los usuarios y explotar sus vulnerabilidades con fines lucrativos. El proyecto chino deja un margen suficiente para el desarrollo industrial y previene eficazmente el riesgo de alienación tecnológica.

[1] Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial).

[2] Me remito a Moisés Barrio Andrés, Reglamento UE de inteligencia artificial (Incluye los actos de desarrollo y ejecución de la AI Act), Francis Lefebvre, Madrid, 2025, capítulo 4 y disponible en https://www.moisesbarrio.es/libro/reglamento-UE-IA_9788410431751.

Comparte: