[ loading / cargando ]

Claudia Delgado, Godoy Hoyos

Colombia   

Reflexiones sobre el uso de ChatGPT en Colombia tras influenciar la decisión de un juez en un juzgado de Cartagena  

El ChatGPT es una herramienta basada en modelos de lenguaje entrenados (Large Language Models) a partir de grandes volúmenes de datos, en concreto, como modelo de red neuronal es una tecnología capacitada para interactuar, brindando una experiencia más cercana a una conversación natural y humana.
A partir de este entendimiento, reflexionamos sobre el uso de la IA en medios legales y concretamente en la toma de decisiones judiciales. 

Uso de la IA en los Medios Legales

La aplicación de la IA en el derecho busca que se facilite la accesibilidad a la información jurídica y se simplifique el razonamiento jurídico. En el medio legal los operadores jurídicos utilizan herramientas de inteligencia artificial para facilitar sus labores y optimizar sus tareas operativas, entre ellos están los sistemas basados en el ser humano (SBSH).
Los SBSH son sistemas informáticos que utilizan técnicas de inteligencia artificial que intentan imitar procesos de razonamiento, aprendizaje memoria y comunicación humana. Entre ellos podemos encontrar los: (i) sistemas expertos, (ii) sistemas basados en casos, (iii) sistemas de apoyo a la decisión y (iv) aprendizaje automático o de la máquina.
ChatGPT se clasifica como un modelo de red neuronal y tiene grandes ventajas, sin embargo, a raíz de que se encuentra en una etapa experimental suministra respuestas imprecisas, erróneas y que pueden incluir información falsa. A mayor abundamiento, como sistema de aprendizaje automático, todavía tiene un largo camino por recorrer, en la capacidad de aplicar un conjunto de reglas que se desarrollan analizando casos previos y si bien puede proporcionar respuestas, estas deben ser analizadas, más aún si existe incertidumbre.
En este sentido, si bien la inteligencia artificial puede ser útil, es una herramienta con tendencia a generar sesgo o sus algoritmos pueden tener fallas, ya que sus conjuntos de datos pueden ser insuficientes y, en consecuencia, que su utilización en el marco de un proceso judicial puede socavar las decisiones judiciales.
A propósito de la Sentencia proferida por el Juzgado Primero del Circuito Laboral de Cartagena, donde el Juez utilizó la inteligencia artificial (ChatGPT) para resolver el problema jurídico, se denota que el ejercicio provino de varias preguntas y respuestas asociadas que coadyuvaron en la toma de decisión del Juez, lo que, en principio, denota que hubo un apalancamiento del Juez en la herramienta sin exclusión de la propia hermenéutica jurídica.
No obstante lo anterior, Juan David Gutiérrez Rodríguez - (PhD en política pública de la U. de Oxford, Profesor de cátedra en la U. de los Andes y Socio en Avante Abogados) - explica existen tres riesgos éticos derivados de la implementación de la IA en el marco de un proceso judicial.

En primer lugar, la utilización de esta tecnología puede contribuir a que los jueces tomen decisiones sesgadas de manera sistemática, lo anterior debido a que los datos que utiliza la IA influyen en los resultados y si estos datos codifican una relación prejuiciosa en la sociedad pues el algoritmo puede identificar este patrón y basar sus resultados en él, por lo que esta tecnología, en últimas, estaría reproduciendo formas de discriminación subyacentes en la sociedad.

En segundo lugar, cabe señalar que los algoritmos con IA operan como una caja negra puesto que se sabe qué salió de ellos, pero los procesos internos de toma de decisiones son opacos; lo anterior en virtud de que los algoritmos de la IA tienen la capacidad para el aprendizaje automatizado y generan resultados mediante procesos internos que no son trazables y son desconocidos por sus propios programadores.

En tercer lugar, se pueden generar asimetrías en la información proporcionada producto de lo mencionado anteriormente.
En suma, la IA implica una serie de riesgos potenciales como la opacidad en los procesos de toma de decisiones, el sesgo y las discriminaciones de todo tipo por lo que es necesario elaborar un marco normativo que contenga normas generales, principios éticos y jurídicos que orienten el diseño regulatorio de esta tecnología (Artificial Intelligence and Law. Problems, Challenges and Opportunities).
Es necesario desarrollar una IA respetuosa de los derechos de los individuos que tenga una normativa clara sobre responsabilidad, transparencia y rendición de cuentas para garantizar el uso responsable de esta tecnología. Con todo, debe aclararse que la transformación digital es necesaria, pero esta debe observar un marco normativo que sea garantista.
En suma, es claro que el sistema judicial debe permearse por el uso de nuevas tecnologías, no obstante, si estas van a utilizarse en la redacción de una sentencia deben ser seguras y eficaces y en ninguna forma deben reemplazar la decisión del juez, sino que únicamente deben fungir como una fuente de información complementaria para que sea el funcionario judicial el que determine el sentido del fallo y no al contrario. 

Por Claudia Delgado, Asociada Senior en Godoy Hoyos 

Suscribe to our newsletter;

 

Our social media presence

  

  

  
 

  2018 - All rights reserved