La inteligencia artificial en la justicia: ¿está preparada para juzgarnos?

¿Estamos listos para que la tecnología tome el mazo de la justicia?

inteligencia artificial en la justicia

Siarelis se pasa los días encerrada en un gran edificio de ladrillo rojo de la Avenida El Dorado, en Bogotá. Por sus manos pasan la mayoría de litigios societarios de Colombia. Nunca abandona, al menos físicamente, la sede de la Superintendencia de Sociedades.

Siarelis pertenece a un reducido grupo de élite a nivel mundial. Algunos de sus miembros dicen poder ver el futuro. Otros son capaces de comprender la trayectoria de una bala solo con escuchar un audio del disparo. Todos tienen una capacidad de trabajo que no es humana. Siarelis es una inteligencia artificial, mitad colombiana, mitad canadiense.

“Siarelis sirve para extraer casos similares al que se está juzgando para ayudar a los asistentes judiciales, que a su vez presentan proyecciones e informan al juez. Así el juez recibe ciertos precedentes y puede decidir con más fundamentación”. David Restrepo Amariles, profesor en HEC Paris, director de investigación del Smart Law Hub de DATA IA e investigador del Instituto de Ciberjusticia de la Universidad de Montreal, conoce bien a este asistente judicial artificial.

“Está basado en un chatbot en desarrollo continuo en la Universidad de Montreal”, explica Restrepo. “El juez puede hablar con la jurisprudencia, con los casos anteriores. Le va haciendo preguntas y el sistema analiza los casos y va generando respuestas. Es un sistema en el que todavía hay algo de interacción humana”.

inteligencia artificial en la justicia

La justicia asistida por la IA

Los algoritmos son, en cierto, sentido, como los microorganismos. No se ven a simple vista, pero eso no significa que no estén ahí ni que sus funciones sean menos importantes. Cada vez más decisiones se toman con su ayuda y la administración pública no es una excepción. ¿Significa eso que pronto tendremos una IA a los mandos de un ministerio? ¿Que los robots cogerán el mazo de la justicia? Puede que llegue algún día, pero, de momento, la labor de la inteligencia artificial es, sobre todo, asistencial.

El caso de Siarelis no es único. ROSS (basado en Watson de IBM) permite a los abogados ser mucho más eficientes en su labor de investigación gracias a la IA. Y Prometea, un software basado en aprendizaje automático, está permitiendo agilizar la burocracia judicial en Argentina. Hasta aquí, todo en orden.

“Existe el riesgo de que el juez pueda convertirse en alguien que aprieta botones e imprime una sentencia. Puede llevar a la automatización sin el robot”, reflexiona Restrepo. En muchos países, los jueces están sometidos a una fuerte presión, su desempeño se mide al milímetro. Si la IA ayuda a trabajar más rápido y ser más eficiente, ¿para qué contradecirla y perder el tiempo rebatiendo sus recomendaciones?

“Esto generaría una especie del congelamiento del derecho, perdería su dinamismo característico. Hacer lo contrario y revisar la decisión que les sugiere el sistema conlleva una carga cognitiva muy alta, conlleva revisar precedentes que no se han tomado en cuenta, luchar contra la máquina”, añade el investigador colombiano. “Aun así, hoy por hoy, los beneficios de un sistema de asistencia como Siarelis son importantes”.

robot juez

La lucha contra los sesgos

Cuanto más profundizamos en el estudio de la inteligencia artificial, más complejidades aparecen. El tema de los sesgos no es nuevo. Los algoritmos pueden ser racistas o machistas. Y corregir estos comportamientos no es sencillo. Y, sin embargo, dejamos cada vez más decisiones en sus manos. Para David Restrepo y el resto de investigadores del Smart Law Hub, esta cuestión va mucho más allá del sistema judicial. Tiene que ver con la justicia de las decisiones de la IA.

Hoy existen dos tipos de decisiones algorítmicas. Las hay basadas en las reglas con las que el humano ha programado a la máquina. Y las hay basadas en el aprendizaje automático de la máquina en base a una serie de conjuntos de datos. “En las primeras puede haber un mayor control sobre los sesgos, porque el sesgo está en quien genera el código del algoritmo. Pero en las segundas, el sesgo está en los datos y es mucho más difícil de identificar y corregir”, señala el profesor de HEC Paris.

Para acabar con los sesgos de los algoritmos de machine learning se han probado varias soluciones. Una es introducir reglas externas en un sistema que se supone que no debería tenerlas. Por ejemplo, regla uno: no tener en cuenta el país de origen a la hora de tomar decisiones. “Pero el algoritmo siempre acaba encontrando otras reglas que terminan por incrementar la discriminación”.

«Hay que tener claro que los jueces también deciden de manera intuitiva. Hay una verdad difícil de asumir y es que la justicia no es igual para todos»

Todavía no existen demasiados estudios al respecto. El paper ‘Potential for Discrimination in Online Targeted Advertising’, publicado en ‘Proceedings of Machine Learning Research’ el año pasado, es uno de ellos. Mostró que introducir reglas no discriminatorias en un algoritmo de aprendizaje automático puede generar una mayor discriminación que si el algoritmo aprende solo.

Otra de las soluciones para corregir los sesgos es verificar los efectos de la decisión de la máquina. En lugar de analizar el aprendizaje, se estudian los efectos durante los primeros minutos que está en uso el algoritmo. “Lo malo de esto es que se estaría intentando corregir una discriminación ya pasada. Y que hay dificultades para conseguir la información”, añade David Restrepo en referencia a los problemas para acceder a los datos, tanto de sistemas públicos como privados.

“Una tercera opción es generar un sistema de interacción entre empresas y organizaciones con los ciudadanos para que existan una serie de mecanismos de control. Algo como lo que se aplica en Europa mediante el RGPD. Esta solución pasa por crear mecanismos grupales para que se pueda ejercer ese control, como la academia o las organizaciones de consumidores”, concluye Restrepo; y reconoce: “Estas tres soluciones son relativamente insatisfactorias”.

tecnología inteligente más justa

¿Para cuándo un juez robot?

Un algoritmo para prevenir la prisión preventiva innecesaria. Una IA para reconocer a los infractores en un accidente o en la escena de un crimen. Datos y machine learning para definir el perfil de riesgo de una persona. Las noticias de este tipo se han empezado a acumular en los últimos dos años. El avance de la IA es innegable y la presencia de decisiones algorítmicas en nuestro sistema es cada vez mayor.

Pero ¿llegarán los algoritmos a sustituir a los jueces? “Hay una parte del proceso de decisión de la justicia que se puede automatizar. Es la parte no intuitiva. Pero hay que tener claro que los jueces también deciden de manera intuitiva”, explica Restrepo. “Hay una verdad difícil de asumir y es que la justicia no es igual para todos. Es un mito que ha generado el derecho y que es falso”.

“Hoy por hoy, estarías reemplazando un sistema semiintuitivo por la lógica formalista. Estaríamos en una sociedad infernal en la que no habría margen de discusión»

La cuestión es tecnológica, pero también filosófica. Hoy en día, la IA no puede decidir intuitivamente, solo lo hace de forma lógica. “La justicia tiene que ver con el caso individual. Hay muchas situaciones y condiciones que entran en juego. Hay una serie de factores contextuales en derecho que hacen la justicia del caso. El análisis de estos factores es, en cierta forma, intuitivo”.

De acuerdo con el investigador colombiano, si se utilizase un sistema de IA para reemplazar la justicia, se acabaría reemplazando por completo el sistema de toma de decisiones. “Hoy por hoy, estarías reemplazando un sistema semiintuitivo por la lógica formalista. Resultaría en un cumplimiento exacto de la norma, porque el algoritmo no puede pensar más allá de las reglas. Estaríamos en una sociedad infernal en la que no habría margen de discusión. Sería un desastre”.

Los países bálticos (Estonia, Letonia y Lituania), cuyas administraciones están entre las más digitalizadas del mundo, han dado pasos serios hacia la justicia de los algoritmos. Por ejemplo, el sistema que están poniendo a prueba en Estonia adjudica los casos a los jueces y analiza la jurisprudencia. Y en Estados Unidos, durante los últimos dos años, se ha utilizado un sistema de IA para recomendar sentencias en ciertos casos (no exento de críticas). Sin embargo, la IA no ha cogido, como tal, el mazo de la justicia.

Los sesgos directos o indirectos (una decisión aparentemente objetiva, pero discriminatoria). La pérdida de flexibilidad de la justicia. Una sociedad sin margen de discusión controlada por decisiones lógicas. Cada paso al frente de la inteligencia artificial abre varias puertas hacia un mundo no necesariamente más justo. Las respuestas, como siempre, solo pueden llegar con tiempo y mucha investigación.

En Nobbot | José Ignacio Latorre: “El uso indiscriminado de la IA dará lugar a una sociedad más aletargada”

Imágenes | Pxhere, Unsplash/Wesley Tingey, Franck V., Pixabay/Gerd Altmann

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *