16 noviembre 2018

Cuestiones éticas en el uso de IA en tareas legales

Jorge MorellPor Jorge Morell
TWITTER @Jorge_Morell

Recientemente el juez Sir Geoffrey Vos, Chancellor de la Corte Suprema del Reino Unido, comentaba que dado que cada vez es más habitual que el asesoramiento legal esté guiado o incluso dependa del uso de inteligencia artificial (en adelante IA), debe establecerse un mecanismo para informar a los clientes sobre si están siendo asesorados por una máquina o un humano (o al menos en qué porcentaje ha participado la máquina en el resultado ofrecido).

De la misma forma, recomendaba a los jueces el uso de herramientas que permitieran comprobar fácilmente patrones o tendencias en grandes volúmenes de información. Sobre todo, si querían seguir confiando en su capacidad para la toma de decisiones en un entorno tan infoxicado como el actual.

Lo planteado puede parecer una cuestión digna de la mejor ciencia ficción, pero el día a día y la realidad están poniendo de manifiesto que ese deber de transparencia quizá deba comenzar a contemplarse seriamente. Es decir, la firma Slaughter and May comentaba hace poco cómo al asesorar a Rolls-Royce en una investigación que requería la identificación de información de carácter privilegiado, tuvo que analizar 5 millones de documentos para llegar a identificar más de 2 millones como relevantes para el caso. Para ello usó el software ACE RAVN, finalizando el proceso en un mes. Hace unos años y sin un software similar, ese tipo de revisiones hubiera llevado casi 2 años.

Esa mejora tan inmensa a nivel de eficiencia y tiempo fue posible gracias al uso de inteligencia artificial y a confiar en que los criterios suministrados al software eran los correctos. De ese modo, si el software descartaba unos documentos pero no otros, más allá de comprobarse los indicadores que pudieran señalarse, el abogado no iba a revisar de nuevo esos millones de documentos descartados. Simplemente confiaría en el criterio del software.

Ahora bien, una vez obtenido el resultado, ¿debe la firma indicar al cliente cómo se ha llegado a esa conclusión, qué software se ha empleado para ello, qué criterios se han tenido en cuenta en su configuración, qué datos se han usado para su entrenamiento o qué nivel de error ha sido considerado como aceptable? ¿O simplemente se firma el documento de entrega por el equipo de abogados, obviando que buena parte de ese resultado (y el rapidísimo plazo de entrega conseguido) está basado en un software?

Ésa es la línea a la que apunta el planteamiento del juez Sir Geoffrey Vos, que indicábamos al inicio.

Es decir, la inteligencia artificial no es más que software, pero la misma presenta unos riesgos que se deben tener presentes al usarse, más a la hora de asesorar legalmente. Por ejemplo, los datos usados para entrenar al software pueden contener sesgos de un lado u otro, y eso condicionar el resultado ofrecido. Además, el software puede llegar a conclusiones cuyo proceso lógico no siempre esté claro y en ocasiones incluso resulte completamente ilógico. Por no decir que al usar IA en el entorno legal debe tenerse en cuenta la confidencialidad de la información analizada, en especial si se usan a terceros proveedores.

A su vez, debemos tener en consideración algunos de los deberes éticos del profesional legal, ya sea a nivel de transparencia con el cliente, grado de comunicación, competencia en el ejercicio de su labor, confidencialidad en relación a la información usada o analizada e incluso un deber de supervisar la tarea realizada y el resultado generado por nuestros abogados, sean o no humanos.

Por tanto, mientras más se emplee la inteligencia artificial en el desarrollo de tareas legales, y sus ventajas son más que obvias a nivel de eficiencia, coste y tiempo, más deberemos tener en cuenta cómo y hasta qué punto indicamos a nuestro cliente que para llegar a determinada conclusión hemos usado un software específico, con una determinada configuración y un concreto margen de error.

Lo que sin duda generará otra cuestión, y es si con ello no estoy indirectamente diciendo que mi labor como profesional no es tan fundamental como pueda parecer si al final buena parte del resultado ofrecido y facturado ha dependido de un software que mayormente configuro y superviso.  Yo creo que ese enfoque es erróneo y que la IA es un gran valedor del profesional y que hará resaltar su conocimiento y experiencia. Pero, sin duda, también creo que algunos clientes pueden llegar a una reflexión de ese estilo, en plan: “Si la máquina hace la mayoría, ¿para qué te necesito a ti?”

Un último ejemplo para acabar: un socio en una gran firma de EEUU tiene la corazonada de que un juez resuelve normalmente a favor de abogados que estudiaron en su misma universidad. La firma usa el software Lex Machina para analizar los últimos 3 años de fallos de ese juez y confirma la teoría, los abogados que fueron a la misma universidad que él obtienen hasta un 35% más de fallos favorables que los que no fueron. A partir de ese momento, la firma asigna a un abogado de esa universidad a todos los casos que debe resolver ese juez, obteniendo un incremento similar en el número de “victorias”. La pregunta es obvia: cuando una firma descubre un sesgo como ése en un juez, gracias a los datos de la IA, ¿tiene la obligación de reportarla para que sea corregida? ¿O simplemente debe aprovechar el descubrimiento? De hecho, ¿debe también comunicarle al cliente que parte de la estrategia procesal se basa en el sesgo descubierto y el riesgo que el mismo puede implicar?

Éstas y otras cuestiones similares son a las que debemos empezar a buscar respuestas al usar inteligencia artificial en el ámbito legal.

Jorge Morell
Fundador de Legaltechies
TWITTER:Jorge_Morell

Comparte: