Reconocimiento facial falla y lleva a mujer a prisión injustamente
Publicado el 29/03/2026 a las 13:05
- Mujer detenida por error IA
- Reconocimiento facial falló
- Pasó meses en prisión
El caso expone riesgos del uso de inteligencia artificial en investigaciones policiales, especialmente cuando se combina con fallas humanas y procesos deficientes.
Error de IA vincula a mujer con delitos que niega
La policía usó reconocimiento facial con IA para arrestar a una mujer por delitos en un estado que dice no haber visitado https://t.co/r66enerMaX
— CNN en Español (@CNNEE) March 29, 2026
Segun informa CNN, una mujer de Tennessee pasó más de cinco meses en prisión tras ser identificada por un sistema de reconocimiento facial con inteligencia artificial como sospechosa de delitos en Dakota del Norte.
Angela Lipps, de 50 años, fue arrestada el 14 de julio sin saber que existía una orden de detención en su contra emitida semanas antes en Fargo.
Los delitos investigados correspondían a casos de fraude bancario ocurridos meses antes en esa ciudad y sus alrededores.
La policía utilizó tecnología de reconocimiento facial de una agencia asociada, junto con otras medidas de investigación, para identificar a una sospechosa.
El sistema señaló a Lipps como posible responsable, pese a que ella asegura no haber estado nunca en Dakota del Norte.
El jefe de policía de Fargo, Dave Zibolski, reconoció posteriormente que la dependencia de información proveniente de otra agencia fue “parte del problema”.
Detención prolongada y liberación tras pruebas

Tras su arresto en Tennessee, Lipps permaneció más de tres meses en prisión antes de ser extraditada a Dakota del Norte.
Posteriormente, continuó detenida mientras enfrentaba cargos por robo y uso no autorizado de información personal.
No está claro por qué las autoridades tardaron tanto en coordinar su traslado y revisión del caso.
TE PUEDE INTERESAR : Cinco muertos tras brutal choque entre tren y furgoneta en Mississippi
Según sus abogados, existían registros bancarios que demostraban que Lipps se encontraba en Tennessee cuando ocurrieron los delitos.
Estas pruebas fueron presentadas como evidencia exculpatoria ante las autoridades.
El 23 de diciembre, el detective del caso, el fiscal y el juez acordaron desestimar los cargos sin perjuicio.
Lipps fue liberada en vísperas de Navidad tras meses de detención.
La mujer describió su experiencia como aterradora, agotadora y humillante.
Sus abogados señalaron que el daño a su reputación y la pérdida de libertad no pueden repararse fácilmente.
El equipo legal analiza la posibilidad de presentar una demanda por violación de derechos civiles.
Policía reconoce fallas y revisa uso de IA
Las autoridades de Fargo identificaron errores en el proceso que llevó a la detención de Lipps.
El sistema de reconocimiento facial utilizado pertenecía a la policía de West Fargo, que emplea tecnología de la empresa Clearview AI.
Dicha herramienta identificó a una posible sospechosa con rasgos similares a los de Lipps.
La información fue compartida con los investigadores de Fargo, quienes asumieron que incluía pruebas adicionales como imágenes de vigilancia.
El jefe de policía admitió que esa suposición fue incorrecta.
También reconoció que no se enviaron las imágenes al centro estatal certificado en reconocimiento facial.
Tras el caso, la policía decidió dejar de utilizar información proveniente del sistema de IA de West Fargo.
Asimismo, implementará revisiones mensuales de las identificaciones realizadas con reconocimiento facial.
El departamento también evalúa mejoras en sus procesos de notificación y seguimiento de detenidos.
A pesar de los errores, las autoridades no ofrecieron una disculpa directa a Lipps.
El caso sigue abierto y los cargos podrían volver a presentarse si surgen nuevas pruebas.
El uso de inteligencia artificial en la policía ha sido objeto de críticas en otros casos recientes.
Expertos señalan que muchas fallas combinan errores tecnológicos y humanos.
También advierten que la adopción acelerada de estas herramientas puede generar una falsa sensación de seguridad.
El caso de Lipps refleja los riesgos de depender de sistemas automatizados sin una verificación adecuada.