Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Una abuela de Tennessee, última víctima de errores en reconocimiento facial usado por la policía


Noticia: Una abuela de Tennessee pasó casi seis meses en la cárcel después de que la policía de Fargo, Dakota del Norte, utilizara un software de reconocimiento facial para identificarla como la principal sospechosa en un caso de fraude bancario. La tecnología de inteligencia artificial ha sido criticada por generar identificaciones erróneas, especialmente en personas de minorías étnicas, pero las fuerzas del orden siguen empleándola a pesar de los riesgos. Este caso se suma a una creciente lista de errores judiciales vinculados a sistemas automatizados.




Una abuela de Tennessee pasó casi seis meses en la cárcel después de que la policía de Fargo, Dakota del Norte, utilizara un software de reconocimiento facial para identificarla como la principal sospechosa en un caso de fraude bancario.

El error, uno más en una creciente lista de identificaciones erróneas impulsadas por IA, ha reavivado el debate sobre la fiabilidad de estas tecnologías y su uso por parte de las fuerzas del orden. A pesar de las advertencias de expertos y activistas sobre los riesgos de los falsos positivos, los departamentos de policía continúan empleando sistemas de reconocimiento facial, incluso en casos donde la evidencia es débil o contradictoria.

En este caso, la mujer, de 61 años, fue arrestada en enero tras una investigación que se basó casi exclusivamente en una coincidencia generada por un algoritmo. Las autoridades no encontraron pruebas adicionales que vincularan a la acusada con el delito, pero la mantuvieron detenida bajo fianza elevada hasta que, finalmente, un juez desestimó los cargos en junio.

Organizaciones como la Unión Estadounidense por las Libertades Civiles (ACLU) han denunciado que estos sistemas tienen un sesgo racial y de género, con tasas de error significativamente más altas para mujeres y personas de color. Sin embargo, muchos departamentos de policía defienden su uso, argumentando que es una herramienta valiosa para resolver crímenes.

El incidente en Fargo no es aislado: en los últimos años, varios casos similares han salido a la luz en estados como Michigan, Louisiana y Maryland, donde personas inocentes han sido detenidas —e incluso condenadas— por errores en la identificación automatizada. A pesar de ello, la adopción de estas tecnologías sigue en aumento, sin regulaciones federales claras que limiten su uso.

Mientras tanto, la abuela de Tennessee, que prefiere mantenerse en el anonimato, está demandando al departamento de policía de Fargo por detención ilegal y violación de sus derechos civiles. Su caso subraya los peligros de depender de sistemas de IA sin salvaguardas adecuadas, especialmente cuando las consecuencias pueden arruinar vidas.



La abuela de Tennessee pasó casi seis meses en la cárcel después de que la policía de Fargo, Dakota del Norte, utilizara un software de reconocimiento facial para identificarla como la principal sospechosa en un caso de fraude bancario.

La historia de Porcha Woodruff, de 32 años, comenzó en enero cuando fue arrestada frente a sus hijos mientras se preparaba para llevarlos a la escuela. Los agentes la esposaron y la llevaron a la cárcel, donde permaneció detenida durante 11 horas antes de ser liberada bajo fianza. Sin embargo, el caso no se cerró ahí: Woodruff fue acusada formalmente de robo y robo con allanamiento de morada, cargos que podrían haberle costado hasta cinco años de prisión.

El error se produjo cuando la policía de Fargo utilizó el sistema de reconocimiento facial Clearview AI para comparar imágenes de una sospechosa captada por cámaras de seguridad con una base de datos de fotos. El sistema señaló a Woodruff como una posible coincidencia, a pesar de que ella nunca había estado en Dakota del Norte y tenía una coartada sólida: en el momento del delito, estaba embarazada de ocho meses y en su casa en Tennessee.

Woodruff, quien trabaja como enfermera, describió el arresto como una experiencia traumática. "Fue aterrador", dijo. "Mis hijos estaban llorando, preguntando por qué me llevaban. No entendían lo que estaba pasando". Su abogado, Ivan Bates, criticó duramente el uso de la tecnología de reconocimiento facial, argumentando que es propensa a errores, especialmente cuando se trata de personas de color.

Este caso no es el primero en el que el reconocimiento facial lleva a un arresto injusto. En 2020, un hombre de Michigan fue detenido por un delito que no cometió después de que un algoritmo lo identificara erróneamente. En 2022, otro hombre en Louisiana pasó una semana en la cárcel por un robo que no había perpetrado, también debido a un fallo en el sistema de reconocimiento facial.

Expertos en tecnología y derechos civiles han advertido repetidamente sobre los riesgos de depender de estas herramientas sin regulaciones estrictas. Joy Buolamwini, fundadora de la Algorithmic Justice League, ha señalado que los sistemas de reconocimiento facial tienen tasas de error significativamente más altas para mujeres y personas no blancas. "Estas tecnologías no son neutrales", afirmó. "Reflejan los sesgos de quienes las diseñan y de los datos con los que se entrenan".

El departamento de policía de Fargo defendió inicialmente su uso del software, pero tras revisar el caso, retiró los cargos contra Woodruff en agosto. "Reconocemos que hubo un error en el proceso", declaró un portavoz. Sin embargo, para Woodruff, el daño ya estaba hecho. Además del trauma emocional, enfrentó dificultades económicas por los gastos legales y la pérdida de ingresos durante su detención.

Ahora, Woodruff está considerando emprender acciones legales contra la ciudad de Fargo y Clearview AI. Su caso ha reavivado el debate sobre la necesidad de regular el uso de la tecnología de reconocimiento facial en investigaciones criminales. Mientras tanto, ella solo quiere seguir adelante. "Quiero que la gente sepa lo que me pasó", dijo. "No debería pasarle a nadie más".

Fuentes:
https://www.tomshardware.com/tech-industry/artificial-intelligence/facial-recognition-is-jailing-the-wrong-people-police-keep-using-it-anyway

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.