La inteligencia artificial (IA) se está convirtiendo en un aliado cada vez más relevante en diversos ámbitos, y la justicia penal no es la excepción. En un contexto donde muchas veces la lentitud, la falta de eficiencia y la disparidad en las decisiones son cuestionados, la IA emerge como una herramienta que podría transformar el sistema judicial argentino. En particular, su implementación en la gestión de la prisión preventiva y la administración penitenciaria promete generar mejoras significativas al facilitar la digitalización de documentos, el análisis de grandes volúmenes de datos y la predicción de patrones en las decisiones judiciales.
¿Puedo ir preso? Tratado sobre la privación de la libertad del inculpado durante un proceso penal. TOMO I
eBook
$10 USD
¿Puedo ir preso? Tratado sobre la privación de la libertad del inculpado durante un proceso penal, TOMO II
eBook
$10 USD
El uso de tecnologías como el aprendizaje automático y la analítica avanzada también está permitiendo a jueces, fiscales y abogados acceder a herramientas más precisas y eficientes para tomar decisiones. Sin embargo, esta incursión de la tecnología en el ámbito judicial también plantea interrogantes sobre sus riesgos y desafíos éticos. ¿Es posible encontrar un equilibrio entre la práctica tradicional del sistema judicial y los avances tecnológicos? ¿Qué implicancias tiene la aplicación de IA en un campo tan sensible como el penal? Estas preguntas y muchas más son parte de un debate que recién comienza.
Este tema ha sido abordado en profundidad en el libro ¿Puedo ir preso?, una obra colectiva de reciente publicación dirigida por el juez Mariano Borinsky, que explora la compleja relación entre la justicia penal y la prisión preventiva. Dentro de este contexto, los capítulos dedicados a la inteligencia artificial, escritos por Nicolás Aguinsky y David Mielnik, reflexionan sobre las oportunidades y los riesgos de incorporar estas tecnologías al proceso judicial.
Para profundizar en el tema, Infobae conversó con Laura Kvitko -coordinadora del libro, junto con Julián Rubinska-, y con Juan Manuel Garay, ambos funcionarios y abogados de la Cámara Federal de Casación Penal. Ellos formarán parte de las Jornadas de Capacitación en Inteligencia Artificial, que se llevarán a cabo en noviembre y diciembre en el máximo tribunal penal del país y serán presentadas por Borinsky, presidente de esa Cámara.
-En el libro ¿Puedo ir preso?, los artículos de Aguinsky y Mielnik analizan el fenómeno de la inteligencia artificial y señalan que puede mejorar la eficiencia y transparencia en los procesos de prisión preventiva. ¿Puede dar ejemplos de cómo esto podría lograrse en la práctica?
-La IA tiene la capacidad de analizar grandes volúmenes de datos históricos, lo que puede ayudar a reducir la subjetividad en las decisiones judiciales. Desde el lado del abogado litigante, le permite conocer las estrategias más efectivas e identificar los argumentos más persuasivos utilizados en casos similares, lo que contribuye a un proceso judicial más predecible y transparente.
No debe perderse de vista que la IA optimiza la gestión de recursos judiciales al clasificar y priorizar casos según su urgencia. Esto genera más disponibilidad de tiempo en los operadores judiciales para que se concentren en los casos y en los aspectos más complejos. También puede pensarse en la posibilidad que ofrece la IA de evaluar el riesgo procesal bajo parámetros objetivos y distintos datos, haciendo que las decisiones sean más consistentes y menos influenciadas por factores externos. Además, la IA puede buscar y analizar jurisprudencia relevante en segundos, identificando precedentes aplicables y ayudando a identificar patrones en determinadas decisiones.
Siempre debe tenerse presente que esta es una herramienta más a utilizar en la administración de justicia, aprovechando su potencial sin comprometer los derechos de las personas, y teniendo en cuenta que la corroboración humana es fundamental. Aunque la IA puede agilizar procesos y ofrecer análisis rápidos, no puede sustituir el criterio humano ni asegurar, por sí sola, la justicia y equidad en las decisiones. Por lo tanto, la intervención humana es necesaria para garantizar que los principios éticos y los derechos fundamentales no se vean comprometidos.
-¿Cuáles consideran que son las principales barreras para la implementación efectiva de la inteligencia artificial en el sistema penitenciario, y cómo podrían superarse?
Los principales desafíos son la infraestructura, la digitalización y la estandarización de información. Por ello, es esencial modernizar y unificar las bases de datos, asegurando su correcta estructuración, actualización y fácil acceso. En esta tarea la IA es una gran aliada, pero también se necesitan recursos humanos y materiales. Por otra parte, es fundamental considerar las implicaciones legales de la IA en el sistema penitenciario y asegurar el cumplimiento de las normativas. También deben considerarse los riesgos éticos relacionados con el uso de la IA en prisiones, para así prevenir abusos y garantizar la dignidad de los presos.
-¿La IA puede generar resistencia y desconfianza en los funcionarios?
-No debemos soslayar esto, porque los funcionarios pueden sentirse escépticos o resistentes a integrarla en sus decisiones. Existe un cierto temor con respecto a la preservación de las fuentes de trabajo con relación a su aplicación, algo que puede deberse a una falta de comprensión de esta tecnología. Superar estas barreras implica un enfoque integral que combine innovación tecnológica, educación, regulación ética y un compromiso por parte de las instituciones para asegurar un uso adecuado y beneficioso en el sistema penitenciario.
-La IA puede ayudar a identificar patrones en decisiones judiciales, pero ¿cómo se puede asegurar que estos sistemas no reproduzcan sesgos raciales o de otro tipo?
-Para asegurar esto es fundamental seguir una serie de prácticas éticas y técnicas. Estas consisten en la realización de auditorías regulares de los algoritmos para identificar y corregir cualquier sesgo. Se trata de analizar cómo el sistema toma decisiones y si existen patrones que afectan desproporcionadamente a ciertos grupos. Al identificar estos problemas, se pueden ajustar los algoritmos para minimizar su impacto. Otra cuestión es la calidad de los datos con los que se entrenan los sistemas de IA. Es importante asegurar que los conjuntos de datos sean lo más completos y representativos posible. Los sistemas de IA deben ser diseñados de manera que sus decisiones sean explicables y auditables.
-¿Cuáles son los principales desafíos éticos que enfrenta la implementación de IA en el sistema judicial, especialmente en el contexto de la prisión preventiva?
-Los principales desafíos que venimos mencionando se relacionan con los sesgos. La IA puede amplificar sesgos históricos, afectando la equidad de las decisiones judiciales, especialmente contra grupos vulnerables. Las decisiones automatizadas pueden ignorar matices humanos y factores contextuales, lo que puede ser muy grave en la prisión preventiva. Otro de los desafíos es mantener la privacidad y la protección de datos personales. Por eso, insistimos, es necesario que las personas supervisemos el funcionamiento de la IA.
-En relación con el uso excesivo de prisión preventiva, ¿cómo podría la IA contribuir a una mejor gestión de recursos en el sistema penitenciario?
Son muchísimos los usos que se le pueden dar a la IA para contribuir con el sistema penitenciario. El artículo de Nicolás Aguinsy en el libro aborda el tema en detalle, y también menciona ejemplos de cárceles que ya lo están implementando. Podemos nombrar a algunos de ellos: la IA podría disminuir la subjetividad y discrecionalidad de cualquier decisión; puede analizar datos para evaluar el riesgo de fuga o reincidencia de manera más objetiva, ayudando a reducir el uso innecesario de la prisión preventiva y priorizando alternativas menos restrictivas; también podría servir para la optimización de la asignación de recursos. Al identificar casos de menor riesgo que no requieren detención, la IA puede liberar espacio en las cárceles y permitir que los recursos se concentren en la supervisión de personas que realmente representan una amenaza. También la IA puede colaborar en la rehabilitación de reclusos, toda vez que los programas tradicionales aplican un enfoque único que quizás no sea efectivo para todos.
-¿Qué ejemplos de aplicaciones exitosas de IA en el ámbito de la prisión preventiva en otros países podrían servir de modelo?
-En Estados Unidos tenemos el ejemplo del uso del algoritmo conocido como COMPAS. Es una herramienta de evaluación de riesgo que ayuda a predecir la probabilidad de reincidencia y fuga, proporcionando a los jueces información objetiva para tomar decisiones más fundamentadas. Sin embargo, la utilización de los algoritmos predictivos está discutida porque las investigaciones han demostrado que pueden estar sesgados y producir evaluaciones discriminatorias.
-¿Cómo?
-Nos permitiría analizar datos, identificar patrones y consecuentemente realizar intervenciones personalizadas. Además, podría facilitar la reintegración laboral de los reclusos, asistiendo en la búsqueda de empleo y su consiguiente integración en la comunidad. Asimismo, su implementación podría optimizar la administración de las prisiones, mejorando la seguridad y el manejo de recursos.
-¿Qué pasos concretos proponen para fomentar el uso de la inteligencia artificial en el sistema legal argentino, considerando su situación actual?
-Los pasos a seguir son muchos y a medida que se avance en su implementación se van a destapar nuevas necesidades. Principalmente, la digitalización y unificación de datos es indispensable. Invertir en la digitalización de archivos y la creación de bases de datos unificadas, es necesario para que los sistemas de IA puedan operar eficazmente. La capacitación de los profesionales es otro aspecto fundamental.
-¿Y qué se hace en ese caso?
-La Unión Europea, el Reglamento General de Protección de Datos europeo (RGDP) limita las decisiones automatizadas y la elaboración de perfiles de personas físicas sobre la base de categorías particulares de datos personales para evitar efectos discriminatorios. En marzo de este año, la ONU alentó a los Estados miembros a promover sistemas seguros y fiables de inteligencia artificial de manera inclusiva y equitativa y para el beneficio de todos. El objetivo es evitar reforzar o perpetuar las aplicaciones y los resultados discriminatorios o sesgados. Como se ve, hay mucho para seguir trabajando y avanzando en la implementación de IA. Las posibilidades son infinitas.