12 junio 2025

AI comply

 Francisco Pérez Bes Por Francisco Pérez Bes
TWITTER @pacoperezbes 

No cabe duda de que las autoridades de consumo deberían estar preparándose hace tiempo para hacer frente a los nuevos retos que planteará la generalización de la adopción de la inteligencia artificial en todos los ámbitos de la sociedad.

Tampoco cabe duda de que, hoy en día, este parece ser un desafío mayúsculo, que va a requerir una estrategia clara y la inversión de unos recursos públicos importantes, de los que posiblemente se carecen.

Por eso es importante que levantemos la mirada hacia otros países que ya han comenzado a recorrer este largo camino. En este caso, podemos citar a Estados Unidos, que, a través de su todopoderosa Federal Trade Commission, lleva meses trabajando en un esquema de cumplimiento, conocido como AI comply, que le permite supervisar el mercado y detectar prácticas comerciales desleales por parte de las empresas que, de algún modo, utilicen -o afirmen utilizar- inteligencia artificial, de una manera ilícita o indebida.

Estas medidas van, en particular, dirigidas a proteger al consumidor de eventuales alegaciones idóneas para perjudicarle, bien por ser engañosas, bien por resultar fraudulentas, aunque siempre centradas en garantizar la confianza del consumidor en el mercado. Y no es fácil hacerlo en un mercado cada vez más lleno de empresas que ofrecen productos y servicios que, al incorporar en sus argumentos promocionales, el término “inteligencia artificial”, se presentan con propiedades casi mágicas o sobrenaturales.

Una de las primeras preguntas que debemos hacernos es cuál es el impacto que la aparición de tecnologías de naturaleza tan disruptiva tiene en el concepto de “consumidor medio” que propugna la normativa, en particular la Ley de Competencia Desleal, para seguir desarrollando ese concepto de “consumidor medio digital” que puede ayudar a resolver muchas de las cuestiones que se van a comenzar a plantear de manera masiva.

Es decir, teniendo en cuenta la rapidez de la adopción de esta tecnología, no podemos obviar las dificultades que un consumidor normalmente informado y razonablemente atento y perspicaz puede tener a la hora de comprender -y confiar- en las alegaciones que acompañan a estos productos y servicios que, aunque en muchas ocasiones antiguos o tradicionales, se presentan al mercado con un espíritu renovado gracias a un supuesto potenciamiento provocado por la IA.

Reino Unido también está siendo un país activo a la hora de sancionar determinadas prácticas que trasladan al mercado una serie de mensajes relacionados con las bondades de la inteligencia artificial, que nos pueden servir de aprendizaje a la hora de evitar este tipo de situaciones, con independencia de las competencias de las autoridades de control nacionales.

Por poner un ejemplo, en diciembre de 2023, la autoridad británica analizó una reclamación contra un anuncio para la aplicación móvil AI Mirror, consistente en un editor de fotos con inteligencia artificial (IA), que mostraba la imagen de una mujer con rostro de estilo anime/manga, inclinada hacia adelante y con pantalones cortos ajustados que se le subían por debajo de las caderas para dejar al descubierto la parte inferior de sus glúteos. Un texto superpuesto decía: «Prueba este efecto de IA».

La ASA consideró que la mujer fue presentada de forma sexualizada y cosificada, ya que, al retratarla de esa manera, el anuncio incumplía la normativa aplicable al emplear un estereotipo dañino al presentar a la mujer como un objeto sexual con el fin de excitar a los espectadores. En España, tal anuncio también estaría prohibido.

Cuestiones de engaño e infracción deontológica

Volviendo a Estados Unidos, la referida FTC ya ha iniciado actuaciones dirigidas a sancionar a compañías que actúan de manera ilícita, como ha sido -en el caso más reciente- el caso Do Not Pay, que se presentaba en el mercado de los consumidores como “el primer abogado robot del mundo”, cuando -en realidad- eso no era así. Esto llevó a dicha autoridad a concluir que ese mensaje se consideraba engañoso.

Fraude piramidal

Ascend es un esquema de oportunidades de negocio en línea que afirma falsamente que sus herramientas de vanguardia basadas en inteligencia artificial ayudarían a los consumidores a generar rápidamente miles de dólares al mes mediante la apertura de tiendas en línea. Ascend se presentaba como líder en comercio electrónico que utilizaba software propietario e inteligencia artificial para maximizar el éxito comercial de sus clientes.

FBA Machine

El material promocional afirmaba que la empresa utilizaba herramientas basadas en IA para ayudar a fijar los precios de los productos en las tiendas y maximizar las ganancias, además de garantizar unos ingresos mínimo que rara vez se materializaban.

Estafa

En su estrategia de marketing, Ecommerce Empire Builders animaba a los consumidores a «empezar un negocio millonario hoy mismo» aprovechando el «poder de la inteligencia artificial» y las supuestas estrategias del esquema, cuando, en realidad, el dinero invertido no se destinaba a tales fines.

Se prometía a los clientes construir un «imperio de comercio electrónico impulsado por IA» participando en sus programas de capacitación, de elevado coste, o comprando una tienda en línea «lista para usar» por decenas de miles de dólares.

Reseñas falsas

La denuncia acusa a Rytr de violar la Ley de la FTC al proporcionar a sus suscriptores los medios para generar contenido escrito falso y engañoso para las reseñas de los consumidores, a los que se ofrece un servicio de «asistente de escritura» con IA para diversos usos, uno de los cuales es la generación de testimonios y reseñas.

En este caso, cabe destacar que la denuncia también alega que Rytr incurrió en una práctica comercial desleal al ofrecer un servicio que probablemente contaminará el mercado con una sobreabundancia de reseñas falsas, lo cual perjudicaría tanto a los consumidores como a la competencia leal.

Otros casos

Existen muchos otros casos investigados, donde el uso de alegaciones que incluyen referencias a la inteligencia artificial juega un papel preponderante e incurre en supuestos de ilicitud por la forma en la que se utilizan, y que infringen distintas normativas:

Automators, otro esquema de tienda en línea;  Career Step, una compañía que supuestamente usó tecnología de IA para convencer a los consumidores de inscribirse en una capacitación profesional falsa;  NGL Labs, una compañía que supuestamente afirmó usar IA para proporcionar moderación en una aplicación de mensajería anónima que comercializó ilegalmente a niños;  Rite Aid, que supuestamente usó tecnología de reconocimiento facial de IA en sus tiendas sin garantías razonables; y  CRI Genetics, una compañía que supuestamente engañó a los usuarios sobre la precisión de sus informes de ADN, incluidas las afirmaciones de que utilizó un algoritmo de IA para realizar coincidencias genéticas.

Comparte: