Borrar
Urgente Herida una persona por la caída de un árbol en la plaza del Mercado de Valencia
AFP
La inteligencia artificial no puede impartir Justicia

La inteligencia artificial no puede impartir Justicia

DEBATE ·

Las grandes tecnológicas estadounidenses se posicionaban contra el uso de algoritmos de inteligencia artificial como método de toma de decisiones de carácter penal

José A. González

Martes, 30 de abril 2019, 07:49

Necesitas ser suscriptor para acceder a esta funcionalidad.

Compartir

La inteligencia artificial se usa para vigilancia activa, para prevenir delitos, para perseguir delincuentes, pero ¿por qué no para aplicar e impartir Justicia?

De momento, no. Partnership on AI, una asociación que reúne a Apple, Amazon, Facebook, IBM, Nvidia, Microsoft y Google, se han posicionado en contra de usar la inteligencia artificial para dictar sentencia.

El University College London trabaja desde hace años en un software de aprendizaje automático que fue capaz de presentar los mismos veredictos que los jueces en cientos de casos reales. «No vemos a estos sistemas de inteligencia artificial sustituyendo a jueces o abogados, propendamos que serán útiles para encontrar rápidamente patrones en casos que podrían llevar a ciertos resultados», apunta el Dr. Nikolaos Aletras, jefe de proyecto.

Partnership on AI se ha mostrado en contra del uso de estas herramientas para resolver casos judiciales, ya que se trata de un método potencialmente sesgado, opaco, y lastrado.

Una de las barreras que apunta el consorcio de las grandes tecnológicas de Silicon Valley es el sesgo a la hora de aplicar el Derecho. «El método correcto que se empleará dependerá de lo que signifique que una herramienta sea «justa» en una aplicación en particular, por lo que esta no es solo una cuestión técnica, sino también una cuestión de ley, política y ética», apuntan. «Si bien no existe una solución única para abordar el sesgo, a continuación se presentan algunos de los posibles enfoques que podrían ser apropiados en el contexto de las predicciones de evaluación de riesgo de Estados Unidos», añade.

A pesar de estas advertencias de los desarrolladores y programadores de inteligencia artificial, estos sistemas están usando. Estados Unidos trabaja con el sistema COMPAS, los delincuentes, ya en la cárcel, se someten a un cuestionario que a continuación es incluido en el software COMPAS, según publica ProPublica.

Al pronosticar quién reincidiría, el algoritmo predijo correctamente la reincidencia de los acusados blancos y negros aproximadamente en la misma proporción (59% para los acusados blancos y 63% para los acusados negros).

La investigación de ProPublica reveló que COMPAS predijo con mayor índice la reincidencia de los delincuentes negros que la realidad. «En el futuro, esperamos que este informe genere una discusión más profunda sobre estas preocupaciones con el uso de herramientas de evaluación de riesgos y estimule la colaboración entre los responsables políticos, los investigadores y los grupos de la sociedad civil para lograr el establecimiento de normas y reformas muy necesarias en este espacio», explica el consorcio.

La Partnership on AI es una organización sin ánimo de lucro establecida para estudiar y formular las mejores prácticas en tecnologías de la inteligencia artificial, para mejorar la comprensión del público y para servir como una plataforma abierta para el debate y la participación sobre la inteligencia artificial.

Asistente en España

El pasado 2017, el Consejo General del Poder Judicial (CGPJ) llegó a un acuerdo con la secretaría de Estado para la Sociedad de la Información y la Agenda Digital bajo el gobierno de Mariano Rajoy para dotar al poder judicial español de inteligencia artificial para facilitar el trabajo de los magistrados.

La tecnología no impartirá justicia, sino que permitirá a los profesionales filtrar documentos de forma más rápida y precisa.

Reporta un error en esta noticia

* Campos obligatorios