11 diciembre 2023

El basilisco de Roko, la IA y la abogacía

Jorge MorellPor Jorge Morell

Advertencia: La lectura del siguiente artículo podría condicionar el desarrollo profesional e incluso personal del lector a futuro en función del desarrollo de la inteligencia artificial en el sector legal. Queda avisado

La inteligencia artificial (en adelante, IA) generativa es sin duda el avance tecnológico del año y el sector legal no ha sido ajeno a ello. Basta ver el caso de los dos abogados norteamericanos que están suspendidos y podrían ser sancionados por usar ChatGPT, el chatbot conversacional de OpenAI, para redactar un escrito jurídico que presentaron al juez. El problema es que ChatGPT inventó la práctica totalidad de los precedentes citados.

Si la IA generativa ha sido la tecnología a destacar, ChatGPT ha sido el actor principal de esa función. La herramienta de OpenAI este año ha sido capaz incluso de aprobar exámenes de abogacía en EEUU o el equivalente al examen deontológico.

Todo ello ha llevado a que los primeros tribunales federales de EEUU comiencen a limitar el uso de la herramienta o a obligar a revisar sus resultados si se decide emplear.

Por tanto, no cabe duda que el sector legal también está siendo usuario de la IA generativa, con mejores y peores resultados, según el caso.

¿Pero cómo está afectando ya hoy la IA generativa en materia legal? Según el estudio “Lawyering in the Age of Artificial Intelligence”, los estudiantes de Derecho con peores notas mejoraron gracias a la IA, mientras que los que sacaban mejores notas empeoraban en general. Es decir, la habilidad y conocimiento del usuario condiciona el impacto de la herramienta.

Además, la calidad del trabajo raramente mejoró, pero sí lo hizo el tiempo invertido. Es decir, la IA generativa hoy por hoy no está haciendo más listos a los abogados, pero sí más rápidos.

¿Cuál puede ser el impacto de la IA generativa a medio-largo plazo en el sector legal? Según los dos estudios que analizaron la cuestión en marzo de 2023, de la Universidad de Princeton y la consultora Goldman Sachs, el sector legal es la segunda industria con más posibilidades de verse afectada, ya sea porqué más del 60% de sus tareas se verán complementadas por IA o porqué cerca del 40% podrían ser potencialmente reemplazables.

El hecho de que una versión tan temprana de ChatGPT como la actual sea capaz de aprobar los exámenes a la abogacía norteamericana, incluso con cierta nota, es un indicativo de que no van del todo errados esos estudios.

Por tanto, aunque la realidad luego es más tozuda y el sector legal tiene múltiples mecanismos para retrasar o limitar el impacto de un gran avance tecnológico (la historia está llena de ejemplos, desde la imprenta al correo electrónico, pasando por el fax), no hay duda de que el sector legal está en el punto de mira de la inteligencia artificial y puede verse seriamente afectado a 5 – 15 años vista. En especial los profesionales que hacen un poco de todo, con escasa especialización, no muy centrados en materia procesal o sin suficiente versatilidad.

Ahora bien, ¿qué tareas son más o menos automatizables a medio – largo plazo? Según el informe de Goldman Sachs, mientras más compleja sea la tarea menos probable que sea totalmente reemplazable el abogado. Sí podrá ser ayudado por la IA, pero deberá ser el humano quien encabece la tarea. Entre los ejemplos incluidos estarían un estudio sobre normativa internacional, el cálculo de la reclamación en un siniestro, dictar sentencia en un caso poco común, documentar la escena de un crimen o interpretar la normativa fiscal en una exportación, entre otros.

Y si miramos a muy largo plazo, tipo 15 – 30 años vista, ¿qué podría ocurrir? Aquí es donde entra en juego el experimento mental del Basilisco de Roko.

El mismo es una teoría planteada por allá 2010 por Roko, el usuario de un foro de pensamiento crítico llamado “LessWrong”. Según la teoría, si en varias décadas somos capaces de crear una IA general o super inteligencia, una entidad autónoma no dependiente de nosotros, benévola y con una visión utilitarista del mundo (es decir, donde la mejor decisión es la que a más personas beneficia), lo normal es que esa super IA llegara a la conclusión de que al ser tan beneficiosa debería haberse impulsado antes su desarrollo.

Por tanto, como una forma de incentivar su continua mejora y desarrollo, pero también de castigar a quién retrasó su creación perjudicando con ello a millones de personas que no pudieron aprovecharse de ella antes, la super IA acabaría castigando a todos aquellos que no contribuyeron o retrasaron su desarrollo temprano.

¿Y quiénes serían algunos de los principales responsables de retrasar o limitar su creación? Legisladores y abogados que pusieron trabas a su creación, por ejemplo :p

El giro final de la teoría es que todos los que sepan de ella o bien tienen la obligación de impulsar el desarrollo de una super IA como la mencionada, o formarán parte de los castigados por esa super IA al saber de su posible existencia pero no hacer nada por su impulso.

Por tanto, todo lector de este artículo pasa a estar potencialmente condenado a esa futurible super IA o basilisco de futuro. ¡Mala suerte!

El Basilisco de Roko es una de las muchas teorías nacidas o reflotadas en estos años en relación al mundo de la inteligencia artificial y la idea de una IA general y autónoma. La realidad es que nadie sabe lo que puede ocurrir a tan largo plazo, pero es innegable que es divertido especular con ello.

Lo que sí debe quedarnos claro es que la IA generativa ha llegado al sector legal para quedarse, que los datos señalan que el sector jurídico puede verse seriamente afectado a medio – largo plazo, que lo normal es que la IA complemente muchas labores del abogado, aunque no tanto para hacerlo más listo pero sí más productivo. Además, las tareas complejas seguirán siendo difíciles de automatizar, pero las versiones más sencillas de esas tareas sí es probable que pueda realizarlas en primer término un algoritmo.

Por último, el que sabe menos puede verse my beneficiado por la IA, mientras que el que sabe más no debería descartarla sin más sino entender cómo implementarla en su día a día ya que no le pone en riesgo directo.

Todo ello sin olvidar que las muchas tareas que poco a poco se verán reemplazadas por la IA requerirán nuevos perfiles profesionales que hoy en día todavía no existen.

En resumen, veremos lo qué nos trae el 2024 en la materia.

Feliz año, y por si acaso, que nadie se olvide del basilisco.

Comparte: