Lo Último en IP@P
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
- Actualizaciones del Programa de Afiliados de TEMU: ¡Hasta MX$500,000 al mes!
La Revista de Tecnología y Sociedad (IEEE Technology and Society Magazine), publicó recientemente un documento en el que la abogada canadiense y estudiante de doctorado Neha Chugh, cuestiona los riesgos de utilizar inteligencia artificial para procesar casos legales.
En Estados Unidos algunos sistemas impulsados por IA están siendo utilizado para medir el riesgo de incidencia en criminales, y siendo considerados para analizar datos en investigaciones policiales, este paper se ha publicado en medio de la discusión sobre integrar dichos sistemas en la justicia canadiense, pero la autora tiene algunas reservas respecto a los prejuicios sociales.
La inteligencia artificial quiere ser usada en procedimientos de juicios criminales
El sistema de justicia criminal con frecuencia es uno de los elementos más importantes para mantener el balance interno de un país. Al mismo tiempo, también es un método muy manipulable por factores internos o externos. Desde que los grupos humanos comenzaron a organizarse socialmente ha existido la necesidad de retribución, el problema es que no todas las personas opinan de la misma manera con respecto a los mismos asuntos.
Lo que a una persona puede parecerle un crimen de gravedad, para otra persona sería algo perfectamente normal. Así, surge la necesidad de un código general al que todos los miembros de una sociedad tengan acceso para identificar cuándo han ocurrido transgresiones, pero aún con la existencia de tal código, las interpretaciones a veces quedan a la deriva y los castigos, a decisión de mentes influenciables.
Por este motivo, se ha estado buscando desde hace mucho tiempo la forma de disminuir el sesgo en los juicios para asegurar condenas más justas y de analizar más fácilmente la información para procesar los casos rápidamente. En los últimos 5 años, con el auge de la inteligencia artificial, el gobierno de Estados Unidos ha visto una oportunidad para mejorar este departamento.
Uno de los principales problemas dentro del sistema de justicia son los prejuicios. La actitud discriminatoria y los agravantes subjetivos, con frecuencia marcan la pauta dentro del proceso de enjuiciamiento, para beneficio o perjuicio del acusado. Los nuevos modelos de IA, asegurarían que el juicio análisis sea realizado por una máquina imparcial que no se deje llevar por las emociones del momento al emitir un resultado.
El problema es que la inteligencia artificial no ha llegado a un punto en el que se cree a sí misma, la inteligencia artificial se forma en base a los parámetros que le proporcionan y aunque puede ser útil en estos campos, al ser alimentados por seres humanos con ideas parciales o con información parcial, sus juicios pueden estar tan sesgados como los que son realizados orgánicamente.
Hasta ahora, los programas de inteligencia artificial utilizados por el sistema de justicia se han centrado en analizar datos a mayor velocidad, realizar comparativas con otros casos similares y las estadísticas generales, mezclando estas funciones para obtener análisis de riesgos y determinar si un ofensor volverá a cometer un crimen.
Últimas Noticias de Tecnología
- Los proxys empresariales siguen su crecimiento imparable gracias a la evolución del mercado DaaS
- Explorando el mundo de las tarjetas de crédito virtuales: Un análisis detallado de los mejores servicios
- Con esta tecnología hasta tu madre podrá controlar un brazo robótico con extrema facilidad
- Nissan revoluciona el mercado con su nuevo concepto de vehículo eléctrico deportivo para Europa
- Estudiantes logran récord mundial con el auto eléctrico de mayor autonomía
SÍGUENOS EN 👉 YOUTUBE TV
Pero ¿En qué información se basa para sacar la conclusión? En los datos obtenidos de investigaciones humanas, y si bien puede funcionar para ciertos grupos que han estado en una posición social estable desde hace décadas, los grupos menos privilegiados tienen todo un contexto distinto que probablemente puede alterar el proceso de interpretación de datos.
Thank you to @Concordia for featuring my work that is so important to me. Artificial Intelligence is coming to our criminal justice system, fast and hard. Are we ready? Or is systemic racism still so pervasive? https://t.co/PBcBz61RbR
— Neha Chugh (@nehachughlaw) November 22, 2022
En este concepto se basa la abogada Neha Chugh cuando afirma que, en su opinión, la justicia aún no está preparada para dar este paso, más bien apunta hacia la necesidad de revisar la situación actual.
Los retos que debe superar la IA antes de ser usada en los tribunales
En su estudio, Chug analiza los casos de convictos con raíces nativas y cómo sus sentencias están influenciadas por factores raciales que se ven reflejados también en el desbalance de los métodos de descarte aplicados a estos grupos. El estudio cuestiona si este mismo material será ofrecido a los motores de las IA para crear su base de datos y cómo afectará a la parcialidad del análisis.
Por otra parte, la inteligencia artificial aún comete equivocaciones, muchas personas se sentirán inseguras al tener que dejar su futuro a merced de una máquina que podría malinterpretar los datos o simplemente cometer un error de cálculo, por supuesto, esto también ocurre con los jurados regulares, pero existe cierta confianza en el elemento humano que aún tomará tiempo reemplazar.
Más allá de esto, es difícil saber hasta qué punto las máquinas son capaces de alcanzar el pensamiento abstracto. Se han realizado muchos avances en el área, sin embargo, aún existe un nivel de complejidad que resulta de las interacciones humanas profundas, con frecuencia encontradas en cierto tipo de crímenes, que las inteligencias artificiales aún están lejos de alcanzar.
"¿Estamos en ese punto? En mi opinión, no. Pero si se demuestra que estoy equivocada, sería la primera en cambiar de opinión".
Abogada, Neha Chugh.
Los elementos subjetivos y emocionales juegan un papel esencial en los juicios, de alguna manera es positivo que puedan ser removidos ciertos factores de esta índole al momento de realizar las condenas, no obstante, de vuelta al factor humanos, ante toda regla existen las excepciones, casos que en papel pueden parecer claros y directos, en la corte resultan dar vuelcos inesperados o llevar mucha más historia detrás, todos estos son puntos que la IA probablemente aún no están cerca de comprender y pasará algo de tiempo antes de que lo estén.
Podríamos decir que los métodos automatizados servirán de empuje para lograr quizá obtener información más fácilmente, llevar registros más amplios, o proveer estadísticas, pero el proceso de decidir una condena sigue siendo demasiado complejo y la ruta a recorrer para que sea posible es larga.