Esta es la primera jueza creada con inteligencia artificial

Varios usuarios de internet ya le han realizado preguntas y al parecer entrega unas respuestas bastante acertadas acerca de procesos reales

Guardar
10-01-2022 Inteligencia Artificial
POLITICA INVESTIGACIÓN Y
10-01-2022 Inteligencia Artificial POLITICA INVESTIGACIÓN Y TECNOLOGÍA FUJITSU-ARCHIVO

Qué mejor manera de hacerle un homenaje a una de las juezas más importantes de Estados Unidos que creando una inteligencia artificial que responde a preguntas relacionadas con asuntos legales y judiciales con un tono similar a cómo lo hacía la difunta Ruth Bader Ginsburg.

Ruth Bader Ginsburg fue una abogada, jurista y jueza de Estados Unidos que trabajó por 27 años en la Corte Suprema de su país, ganando notorio reconocimiento por sus ideales feministas y su lucha por la equidad de género a través de su carrera.

Aunque falleció en 2020, dejando por varios días en luto al país norteamericano, recientemente volvió a ser noticia debido a que la empresa de tecnología de “AI21 Labs” diseñó una inteligencia artificial basándose en las respuestas que ella solía hacer respecto a asuntos legislativos y penales.

Su objetivo será asesorar en un primer momento a personas que posean inquietudes del ámbito legal por medio de un chat que ya se encuentra disponible, aunque por ahora sólo en inglés, sin embargo, se puede acceder desde cualquier lugar del mundo.

Para realizarle preguntas se debe acceder al sitio web https://ask-rbg.ai/#ask, donde aparecerá una caja de texto en la que se debe digitar la pregunta a realizar, posteriormente la IA responderá “Sí”, “No” o “Tal vez”, con una pequeña justificación al respecto basada en las más de 600.000 palabras del espectro legal estadounidense con las que fue programado este sistema. Es preciso detallar que todos los comentarios fueron proferidos por la jueza Ruth Bader Ginsburg en entrevistas, opiniones y sentencias.

Sin embargo, como todas las más recientes innovaciones en materia de inteligencia artificial, esta no ha pasado desapercibida y por el contrario, ya ha sido cuestionada por su desempeño y el lugar en que quedarían los jueces humanos en un futuro en el que este tipo de tecnologías alcancen altos niveles de desarrollo.

Por ahora, según Emily Bender, profesora de la Universidad de Washington, esta tecnología es capaz de dar respuestas como un juez real pero no piensa como uno, ya que “puede devolver palabras y el estilo de ellas se basará en el texto que introdujeron, pero no está razonando”.

Un dato interesante es que la justicia de Estados Unidos ya ha venido implementado diferentes tecnologías que están ayudando a calcular las probabilidades de reincidencia de las personas con cargos imputados o recuperar grandes bases de datos extraviadas, este último con uso de Blockchain y Machine Learning.

Así mismo, esta IA inspirada en Ginsburg ya se está aplicando a algunos procedimientos de las instituciones judiciales, legales y penales del país.

Por otro lado, también se han generado interrogantes respecto a la imparcialidad de este sistema. Por ejemplo, David Martínez, profesor de la Universitat Oberta de Catalunya (UOC) sostiene que si un algoritmo solo se limita a ejecutar órdenes programadas, no existe posibilidad de que se vea alterada la aplicación mecánica de las normas por factores como prejuicios y creencias personales, debido a que si es de este modo, este tipo de inteligencias no cuentan con elementos de subjetividad.

En este sentido, la Inteligencia Artificial podría servir como una herramienta para “desempantanar” procesos en los que los jueces se puedan ver afectados por las emociones del momento, aunque tampoco están exentos de cometer errores.

Un ejemplo de lo anterior es España, donde se ha creado la “Agencia Española de Supervisión de la Inteligencia Artificial”, que busca evaluar el comportamiento de este tipo de tecnologías y ayudar a aclarar los dilemas éticos sobre su uso ante la sociedad.

A lo anterior, el magistrado del país europeo Luis Villares sugiere que, “Un algoritmo no es capaz de detectar las razones por las cuales se producen las conductas humanas, a lo que esta falta de capacidad para entender las emociones juega también un papel negativo a la hora de establecer una sentencia”

Finalmente, el también magistrado de España, Antonio del Moral, indica que, " La IA devuelve horas de trabajo a los magistrados y gestores que pueden ser invertidas en otras tareas, como valorar con más minuciosidad las pruebas. Sin embargo, la IA no puede sustituir a los jueces. La justicia, por definición, es humana e imperfecta, lo cual asumimos. El razonamiento judicial no se puede meter en unos moldes estandarizados porque cada ciudadano merece una solución personal”.

SEGUIR LEYENDO:

Guardar