📅 Tal día como hoy 25 de abril... ¿QUÉ PASÓ?
Cursos Gratis Stories
Ganar Dinero Internet
Android Stories
Windows Stories
iOS Stories
MacOS Stories
Linux Stories
Facebook Stories
Amazon Stories
Netflix Stories
Whatsapp Stories
Twitch Stories
Instagram Stories
YouTube Stories
Gmail Stories
TikTok Stories
Arduino Stories
Telegram Stories
Raspberry Pi Stories

Quieren utilizar la Inteligencia Artificial para definir el resultados de juicios por causa penal pero es demasiado pronto

Investigadora canadiense expone los riesgos de utilizar IA en los casos criminales citando conflictos de racismo y sesgos sociales, grandes prejuicios que habría que solventar antes de usar la tecnología en juicios reales

Mario José
Autor: Mario José
Fecha: 24 noviembre, 2022 a las 21:03

La Revista de Tecnología y Sociedad (IEEE Technology and Society Magazine), publicó recientemente un documento en el que la abogada canadiense y estudiante de doctorado Neha Chugh, cuestiona los riesgos de utilizar inteligencia artificial para procesar casos legales.

En Estados Unidos algunos sistemas impulsados por IA están siendo utilizado para medir el riesgo de incidencia en criminales, y siendo considerados para analizar datos en investigaciones policiales, este paper se ha publicado en medio de la discusión sobre integrar dichos sistemas en la justicia canadiense, pero la autora tiene algunas reservas respecto a los prejuicios sociales.

publicidad

La inteligencia artificial quiere ser usada en procedimientos de juicios criminales

La inteligencia artificial quiere ser usada en procedimientos de juicios criminales

El sistema de justicia criminal con frecuencia es uno de los elementos más importantes para mantener el balance interno de un país. Al mismo tiempo, también es un método muy manipulable por factores internos o externos. Desde que los grupos humanos comenzaron a organizarse socialmente ha existido la necesidad de retribución, el problema es que no todas las personas opinan de la misma manera con respecto a los mismos asuntos.

Lo que a una persona puede parecerle un crimen de gravedad, para otra persona sería algo perfectamente normal. Así, surge la necesidad de un código general al que todos los miembros de una sociedad tengan acceso para identificar cuándo han ocurrido transgresiones, pero aún con la existencia de tal código, las interpretaciones a veces quedan a la deriva y los castigos, a decisión de mentes influenciables.

Por este motivo, se ha estado buscando desde hace mucho tiempo la forma de disminuir el sesgo en los juicios para asegurar condenas más justas y de analizar más fácilmente la información para procesar los casos rápidamente. En los últimos 5 años, con el auge de la inteligencia artificial, el gobierno de Estados Unidos ha visto una oportunidad para mejorar este departamento.

Uno de los principales problemas dentro del sistema de justicia son los prejuicios. La actitud discriminatoria y los agravantes subjetivos, con frecuencia marcan la pauta dentro del proceso de enjuiciamiento, para beneficio o perjuicio del acusado. Los nuevos modelos de IA, asegurarían que el juicio análisis sea realizado por una máquina imparcial que no se deje llevar por las emociones del momento al emitir un resultado.

El problema es que la inteligencia artificial no ha llegado a un punto en el que se cree a sí misma, la inteligencia artificial se forma en base a los parámetros que le proporcionan y aunque puede ser útil en estos campos, al ser alimentados por seres humanos con ideas parciales o con información parcial, sus juicios pueden estar tan sesgados como los que son realizados orgánicamente.

Hasta ahora, los programas de inteligencia artificial utilizados por el sistema de justicia se han centrado en analizar datos a mayor velocidad, realizar comparativas con otros casos similares y las estadísticas generales, mezclando estas funciones para obtener análisis de riesgos y determinar si un ofensor volverá a cometer un crimen.

Pero ¿En qué información se basa para sacar la conclusión? En los datos obtenidos de investigaciones humanas, y si bien puede funcionar para ciertos grupos que han estado en una posición social estable desde hace décadas, los grupos menos privilegiados tienen todo un contexto distinto que probablemente puede alterar el proceso de interpretación de datos.

En este concepto se basa la abogada Neha Chugh cuando afirma que, en su opinión, la justicia aún no está preparada para dar este paso, más bien apunta hacia la necesidad de revisar la situación actual.

Los retos que debe superar la IA antes de ser usada en los tribunales

En su estudio, Chug analiza los casos de convictos con raíces nativas y cómo sus sentencias están influenciadas por factores raciales que se ven reflejados también en el desbalance de los métodos de descarte aplicados a estos grupos. El estudio cuestiona si este mismo material será ofrecido a los motores de las IA para crear su base de datos y cómo afectará a la parcialidad del análisis.

Por otra parte, la inteligencia artificial aún comete equivocaciones, muchas personas se sentirán inseguras al tener que dejar su futuro a merced de una máquina que podría malinterpretar los datos o simplemente cometer un error de cálculo, por supuesto, esto también ocurre con los jurados regulares, pero existe cierta confianza en el elemento humano que aún tomará tiempo reemplazar.

Más allá de esto, es difícil saber hasta qué punto las máquinas son capaces de alcanzar el pensamiento abstracto. Se han realizado muchos avances en el área, sin embargo, aún existe un nivel de complejidad que resulta de las interacciones humanas profundas, con frecuencia encontradas en cierto tipo de crímenes, que las inteligencias artificiales aún están lejos de alcanzar.

“¿Estamos en ese punto? En mi opinión, no. Pero si se demuestra que estoy equivocada, sería la primera en cambiar de opinión”.

Abogada, Neha Chugh.

Los elementos subjetivos y emocionales juegan un papel esencial en los juicios, de alguna manera es positivo que puedan ser removidos ciertos factores de esta índole al momento de realizar las condenas, no obstante, de vuelta al factor humanos, ante toda regla existen las excepciones, casos que en papel pueden parecer claros y directos, en la corte resultan dar vuelcos inesperados o llevar mucha más historia detrás, todos estos son puntos que la IA probablemente aún no están cerca de comprender y pasará algo de tiempo antes de que lo estén.

Podríamos decir que los métodos automatizados servirán de empuje para lograr quizá obtener información más fácilmente, llevar registros más amplios, o proveer estadísticas, pero el proceso de decidir una condena sigue siendo demasiado complejo y la ruta a recorrer para que sea posible es larga.

🔥ÚNETE🔥 A LA NUEVA COMUNIDAD DE IP@P ¡APÚNTATE AQUÍ!

Si te quedaste con alguna duda, déjalas en los comentarios, te contestaremos lo antes posible, además seguro que será de gran ayuda para más miembros de la comunidad. Gracias! 😉

Temas

Mario José
Autor: Mario José

Licenciado en periodismo, especializado en investigación, busco la verdad de todas las cosas. Ahora centrado 100% sobre temas de tecnología, informática e Internet.

Publicidad

Últimas Noticias

Deja un comentario