25 febrero 2019

El uso ético de inteligencia artificial en el sistema judicial

Jorge MorellPor Jorge Morell
TWITTER @Jorge_Morell

En octubre de 2016 el “University College of London” publicó una investigación que generó montones de titulares. Se había realizado un estudio analizando 584 decisiones del Tribunal Europeo de Derechos Humanos en asuntos relacionados con los artículos 3, 6 y 8 de la Convención y se había aplicado un algoritmo a esos asuntos para encontrar patrones en el texto. La finalidad era ver si el software podía predecir el fallo.

Y en un 79% de los casos lo consiguió.

Éste y otros casos son mencionados por la primera Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno. La misma fue aprobada en la sesión de diciembre de 2018 de la Comisión Europea para la Eficiencia de la Justicia.

El documento que acompaña a la Carta y sus cinco principios básicos llega a las 79 páginas. Por tanto, aquí solo resumiremos brevemente algunas de las muchas cuestiones planteadas en el documento.

Por cierto, ya en mi anterior post hablé de la vertiente ética del uso de inteligencia artificial en tareas legales. Sirva este post como una continuación del anterior.

Comencemos por los cinco principios éticos que deben informar el uso de inteligencia artificial por parte de un juzgado o tribunal, pero también cualquier operador jurídico que trabaje en su entorno. Vamos a ello:

1.- Principio de respeto de los derechos fundamentales: garantizar que el diseño e implementación de herramientas y servicios de inteligencia artificial son compatibles con los derechos fundamentales.

Cuando una herramienta de inteligencia artificial es usada para resolver una disputa o asistir en una decisión judicial, debe ser usada de acuerdo a la ley y a la independencia de los jueces en su proceso de toma de decisiones. Por lo tanto, se debe dar preferencia a la llamada “Ética desde el diseño” o el enfoque de derechos humanos por diseño. Esto significa que desde las fases de diseño y aprendizaje, se integran normas que prohíben las vulneraciones directas o indirectas de los valores fundamentales.

2.- Principio de no discriminación: prevenir específicamente el desarrollo o intensificación de cualquier discriminación entre individuos o grupos de individuos.

En este caso, y dada la capacidad de estos sistemas para revelar la discriminación existente, ya sea a través de la agrupación o clasificación de datos relacionados con individuos o grupos de los individuos, tanto las entidades públicas como las privadas deben garantizar que los métodos no reproducen o gravan tal discriminación. Además de asegurar que no conducen a análisis o usos deterministas. En especial cuando se procesa, directa o indirectamente, información sensible como opiniones políticas, datos genéticos o sobre la orientación sexual.

3.- Principio de calidad y seguridad: en relación al procesamiento de decisiones y datos judiciales, se deben utilizar fuentes certificadas y datos intangibles con modelos elaborados de forma multidisciplinar y en un entorno tecnológico seguro.

Se hace especial hincapié en que los diseñadores de modelos de aprendizaje automático, al crear los algoritmos, tengan muy en cuenta el conocimiento y experiencia de profesionales del sistema judicial. Además, los datos basados en decisiones judiciales que se incorporen en un software que implementa un algoritmo de aprendizaje automático, deben provenir de fuentes certificadas y no deben modificarse hasta que realmente hayan sido utilizados por el algoritmo. Por lo tanto, todo el proceso debe ser rastreable para garantizar que no se ha producido ninguna modificación para alterar el contenido o el significado de la decisión durante su procesamiento.

4.- Principio de transparencia, imparcialidad y equidad: crear métodos de procesamiento de datos accesibles y comprensibles, así como autorizar auditorías externas.

Cuando se utilicen herramientas que pueden tener consecuencias o afectar significativamente la vida de las personas, debe alcanzarse un equilibrio entre la propiedad intelectual de ciertos métodos de procesamiento y la necesidad de transparencia. Por ejemplo, teniendo acceso al proceso de diseño, buscando la imparcialidad (la ausencia de sesgo), así como la equidad e integridad intelectual (de forma que se prioricen los intereses de la Justicia). Además, debe quedar claro que estas medidas se aplican a toda la cadena de diseño y ejecución, ya que el proceso de selección y la calidad y organización de los datos influyen directamente en la fase de aprendizaje.

5.- Principio “bajo control del usuario”: excluir un enfoque prescriptivo o normativo de la cuestión y asegurar que los usuarios sean actores informados y en control de las elecciones realizadas.

La autonomía del usuario debe ser incrementada y no restringida mediante el uso de herramientas de inteligencia artificial. Por tanto, los profesionales del sistema de justicia deben, en cualquier momento, ser capaces de revisar las decisiones judiciales y los datos utilizados para producir un resultado. Además, no tienen que estar necesariamente vinculados al resultado a la luz de las características específicas del caso particular. Todo ello sin olvidar que el usuario debe ser informado en un lenguaje claro y comprensible sobre si las soluciones ofrecidas por las herramientas son o no vinculantes, de las diferentes opciones disponibles, del derecho al asesoramiento legal y del derecho a acceder a un tribunal.

Más allá de establecer los cinco principios y hablar de ellos en detalle, el documento se plantea también cómo un entorno judicial con un uso común de inteligencia artificial a la hora de dar un resultado o asistir al juez, con decisiones judiciales altamente segmentadas y medidas (según asuntos, fundamentos, jueces y otros múltiples indicadores), puede tener efectos inesperados. Especialmente teniendo en cuenta que la Justicia es regularmente objeto de recortes presupuestarios que pueden llevar a pensar que las eficiencias de la inteligencia artificial son la solución a esos recortes.

Por ejemplo, ¿podemos llegar a un escenario en el que la generación de resultados estándar en una determinada materia convierta a ese dato en nueva fuente del Derecho? De hecho, ¿se correría el riesgo de una excesiva estandarización de las decisiones judiciales? Hasta el punto que los jueces sean empujados a un estándar mayoritario sin cuestionarse la idoneidad del mismo.

Siguiendo con la cuestión de la excesiva estandarización, ¿un sistema así cuestionaría al juez que se salga de lo habitual en su fallo según el histórico de resoluciones? El juez que se salga de la corriente, ¿debería dar explicaciones adicionales para justificar ese cambio de criterio respecto a la mayoría?

También reflexiona el documento sobre si las normas comenzarían a ser establecidas de acuerdo a la tendencia mayoritaria de las decisiones judiciales. De hecho, si las decisiones judiciales fueran adoptadas de forma uniforme y no se ordenaran en función de la jerarquía de los tribunales de las que emanan sino por la cantidad y volumen de una determinada corriente, ¿se estaría cuestionando la importancia de las decisiones de los tribunales supremos?

Por último, también se cuestiona si el uso de herramientas de inteligencia artificial podría afectar el derecho a un juicio justo. Es decir, si una gran firma, al disponer de mayores medios que un pequeño despacho, podría unir datos públicos y privados con mayor facilidad y fidelidad, obteniendo así un perfilado muy concreto del juez que deba resolver un asunto. Generando un desequilibrio en el caso.

Todas esas preguntas, y muchas otras, no son sencillas de contestar. Pero sin duda más tarde o temprano deberemos hacer frente a esos escenarios en nuestros juzgados y tribunales.

Que el algoritmo nos acompañe.

Jorge Morell
Fundador de Legaltechies
TWITTER:Jorge_Morell

Comparte: