Buscar
Aprieta "Enter" para buscar o "ESC" para cerrar.

Reconocimiento facial falla y lleva a mujer a prisión injustamente

Reconocimiento facial IA provocó un arresto injusto que mantuvo a una mujer meses en prisión por un delito que asegura no cometió.
2026-03-29T18:05:46-04:00
Share on FacebookShare on InstagramShare on TwitterShare on TikTokShare on YouTubeShare on WhatsApp
Suscríbete a Nuestro Boletín
Recibe por email las noticias más destacadas
FOTO: gofundme
  • Mujer detenida por error IA
  • Reconocimiento facial falló
  • Pasó meses en prisión

El caso expone riesgos del uso de inteligencia artificial en investigaciones policiales, especialmente cuando se combina con fallas humanas y procesos deficientes.

Error de IA vincula a mujer con delitos que niega


Segun informa CNN, una mujer de Tennessee pasó más de cinco meses en prisión tras ser identificada por un sistema de reconocimiento facial con inteligencia artificial como sospechosa de delitos en Dakota del Norte.

Angela Lipps, de 50 años, fue arrestada el 14 de julio sin saber que existía una orden de detención en su contra emitida semanas antes en Fargo.

Los delitos investigados correspondían a casos de fraude bancario ocurridos meses antes en esa ciudad y sus alrededores.

La policía utilizó tecnología de reconocimiento facial de una agencia asociada, junto con otras medidas de investigación, para identificar a una sospechosa.

El sistema señaló a Lipps como posible responsable, pese a que ella asegura no haber estado nunca en Dakota del Norte.

El jefe de policía de Fargo, Dave Zibolski, reconoció posteriormente que la dependencia de información proveniente de otra agencia fue “parte del problema”.

Detención prolongada y liberación tras pruebas

Mujer detenida, IA, Tennessee MundoNOW
Reconocimiento facial IA causa arresto injusto en EEUU FOTO: gofundme

Tras su arresto en Tennessee, Lipps permaneció más de tres meses en prisión antes de ser extraditada a Dakota del Norte.

Posteriormente, continuó detenida mientras enfrentaba cargos por robo y uso no autorizado de información personal.

No está claro por qué las autoridades tardaron tanto en coordinar su traslado y revisión del caso.

TE PUEDE INTERESAR : Cinco muertos tras brutal choque entre tren y furgoneta en Mississippi

Según sus abogados, existían registros bancarios que demostraban que Lipps se encontraba en Tennessee cuando ocurrieron los delitos.

Estas pruebas fueron presentadas como evidencia exculpatoria ante las autoridades.

El 23 de diciembre, el detective del caso, el fiscal y el juez acordaron desestimar los cargos sin perjuicio.

Lipps fue liberada en vísperas de Navidad tras meses de detención.

La mujer describió su experiencia como aterradora, agotadora y humillante.

Sus abogados señalaron que el daño a su reputación y la pérdida de libertad no pueden repararse fácilmente.

El equipo legal analiza la posibilidad de presentar una demanda por violación de derechos civiles.

Policía reconoce fallas y revisa uso de IA


Las autoridades de Fargo identificaron errores en el proceso que llevó a la detención de Lipps.

El sistema de reconocimiento facial utilizado pertenecía a la policía de West Fargo, que emplea tecnología de la empresa Clearview AI.

Dicha herramienta identificó a una posible sospechosa con rasgos similares a los de Lipps.

La información fue compartida con los investigadores de Fargo, quienes asumieron que incluía pruebas adicionales como imágenes de vigilancia.

El jefe de policía admitió que esa suposición fue incorrecta.

También reconoció que no se enviaron las imágenes al centro estatal certificado en reconocimiento facial.

Tras el caso, la policía decidió dejar de utilizar información proveniente del sistema de IA de West Fargo.

Asimismo, implementará revisiones mensuales de las identificaciones realizadas con reconocimiento facial.

El departamento también evalúa mejoras en sus procesos de notificación y seguimiento de detenidos.

A pesar de los errores, las autoridades no ofrecieron una disculpa directa a Lipps.

El caso sigue abierto y los cargos podrían volver a presentarse si surgen nuevas pruebas.

El uso de inteligencia artificial en la policía ha sido objeto de críticas en otros casos recientes.

Expertos señalan que muchas fallas combinan errores tecnológicos y humanos.

También advierten que la adopción acelerada de estas herramientas puede generar una falsa sensación de seguridad.

El caso de Lipps refleja los riesgos de depender de sistemas automatizados sin una verificación adecuada.

Regresar al Inicio