22 diciembre 2023

¿Y si regular la inteligencia artificial en base a los derechos fundamentales no fuera tan buena idea?

Elen IrazabalPor Elen Irazabal

En Europa, los derechos humanos disfrutan de un reconocimiento indiscutible. Las normativas basadas o inspiradas en el respeto a los derechos fundamentales suelen contar con amplia aceptación entre la ciudadanía. No sorprende que la Unión Europea adopte legislaciones en nombre del respeto a la Carta de los Derechos Fundamentales y los valores de la Unión.

Aunque aún no se conoce el texto definitivo del Reglamento de la UE que regula la inteligencia artificial, tanto en la propuesta de la Comisión Europea como en las enmiendas realizadas por el Parlamento Europeo, se enfatiza la necesidad de que la inteligencia artificial no vulnere los derechos fundamentales consagrados en la Carta. La inteligencia artificial debe ser “centrada en el ser humano”, priorizando los valores y el bienestar humano.

En este contexto, el texto del Parlamento Europeo destaca que los sistemas de inteligencia artificial deben esforzarse al máximo para respetar los principios generales que establecen un marco de alto nivel promoviendo un enfoque coherente y centrado en el ser humano hacia una IA ética y confiable, en línea con la Carta de los Derechos Fundamentales de la Unión Europea y los valores en los que se fundamenta la Unión. Esto incluye la protección de los derechos fundamentales, la agencia humana y la supervisión, la solidez técnica y la seguridad, la privacidad y la gobernanza de los datos, la transparencia, la no discriminación y la equidad, y el bienestar social y ambiental.1 El texto hace referencia expresa a derechos fundamentales como la no discriminación, el derecho a la dignidad, la protección de datos personales, el respeto a la vida privada y familiar, la igualdad de género, entre otros.

Un argumento a favor de un marco normativo basado en derechos fundamentales es que estos son lo “mínimo” que destinatarios de las normas deben cumplir. Sin embargo, al regular en base al respeto de los derechos fundamentales la UE se encuentra en la posición de tener que desarrollar este marco mínimo, al tener que imponer una seria de obligaciones para cumplimentar estos derechos.2 Al fin y al cabo… ¿cómo interpretamos qué es el derecho a la dignidad de todas las personas? ¿Cómo se pueden asegurar los derechos a la privacidad y protección de datos en sistemas de IA que procesan grandes volúmenes de información personal? ¿De qué manera las decisiones tomadas por sistemas de IA pueden ser transparentes y explicables para garantizar la rendición de cuentas? Y así un largo etc.

Estas cuestiones reflejan la responsabilidad de los estados en la definición y protección de estos principios fundamentales en el contexto de la implementación y regulación de tecnologías avanzadas como la inteligencia artificial. Al tener que adoptar una serie de medidas que protejan los derechos fundamentales nos encontramos ante el escenario donde es el poder político quien tiene la potestad de tomar las medidas que estime oportunas, aun siendo éstas inefectivas.

Este pretexto puede conducir a un excesivo control gubernamental en contra de la evolución y la espontaneidad humana a la hora de tomar decisiones éticas. Estos organismos, al operar a un nivel tan elevado y despersonalizado, pueden no ser capaces de captar las sutilezas y particularidades de las situaciones locales, lo que resulta en decisiones que pueden ser percibidas como desconectadas de las realidades y necesidades individuales.

Además, la aplicación de un marco ético uniforme a través de toda la Unión puede ignorar la diversidad cultural y las diferencias en los valores éticos entre los Estados miembros. Esto no solo podría conducir a tensiones y conflictos dentro de la Unión, sino también a la imposición de normas que no resuenen o sean inapropiadas en ciertos contextos culturales. Tal enfoque podría limitar la capacidad de los individuos y las comunidades para desarrollar y seguir sus propios códigos éticos, basados en sus experiencias, tradiciones y creencias particulares.

Por otro lado, esto presenta un riesgo adicional: la posibilidad de que los ciudadanos carezcan de un marco amplio para tomar decisiones éticas y aprender de sus propios errores. Comúnmente, la legislación es criticada desde la perspectiva de la innovación económica. Sin embargo, si, tal como sostiene la Unión Europea, la inteligencia artificial constituye un riesgo significativo y su regulación futura se anticipa como un desafío, surge la cuestión de por qué deberíamos asumir que existe un único enfoque correcto para su regulación. Al decidir por una legislación específica para la inteligencia artificial, incurrimos en un coste de oportunidad considerable: dejamos de lado posibles alternativas legislativas y nos comprometemos exclusivamente con una única estrategia. La innovación no debería limitarse al ámbito tecnológico; la evolución de los valores éticos es igualmente crucial.

 

[1] European Parliament. Text adopted. Artificial Intelligence Act https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf
[2] Javier Hernandez, Santiago Dussan “Hobbes and the economic, social and cultural rights of the universal declaration of human rights” https://revistaselectronicas.ujaen.es/index.php/TAHRJ/article/view/6572

Comparte: