Detecciones policiales erróneas por «falsos positivos» en Reconocimiento Facial
Llevo muchos años hablando de esto. De cómo los sistemas de Reconocimiento Facial, aún utilizando Cognitive Services de Visión Artificial pueden fallar, y de forma muy dramática. Casos como aquellos en los que me confunden en fotografías con George Clooney de los que os he hablado varias veces, o como el de cómo el entrenamiento con datos sesgados en un modelo de Inteligencia Artificial puede llevar a oscurecer la piel en un sistema de reconocimiento facial para detectar a posibles delincuentes.
Esto ya es sabido, así que cuando hablamos de imputar a personas en delitos en base a una detección o un «match» hecho con un sistema de reconocimiento facial hay que revisar bien todos los indicios antes de poder tomar una decisión que afecte a una persona por cometer un error en la identificación. Y este es el caso de una ciudadana americana.
Figura 2: Unreliable facial recognition match
La persona en cuestión es Porcha Woodruff, y fue detenida y encarcelada temporalmente por una cadena de acontecimientos bastante desastrosa. A la víctima le habían robado el coche un hombre y una mujer en una gasolinera, y días después una mujer devolvió en la gasolinera el teléfono de la víctima. Y fue grabada por el vídeo de seguridad de la gasolinera bien. El detective sospechaba que pudiera haber sido la compañera del hombre que robó a la víctima el vehículo y que por «miedo» a salir localizada por el terminal, lo devolvía como si lo hubiera encontrado
Hicieron un reconocimiento facial buscando a partir de un fotograma, mujeres que estuvieran en la base de datos fichadas que hicieran «match«, y salió Porcha Woodruff. En el 2015 había sido fichada y había una foto en la base de datos con la que se buscó en el sistema de reconocimiento facial.
Figura 4: Carné de conducir con foto del 2021
Hasta aquí bien, pero como es sabido que esto no es 100% perfecto, se podría haber hecho algo para evitar el «Falso Positivo«, como usar la fotografía que tenían en el carné de conducir del año 2021, o preguntar si la compañera del atracador estaba embarazada de 8 meses, que era el estado de PW en ese momento.
Pero no se hizo, se presentó la foto a la víctima del robo en un grupo de seis fotografías, y ella la reconoció como posible persona que acompañaba al atracador, y el resto… os lo imagináis.
La conversación entre el detective y PW recoge esta situación, y la podéis leer porque Porcha WoodRuff ha presentado una demanda a la Policía de Detroit por los hechos, consecuencia de utilizar estos sistemas de reconocimiento facial, no contrastar la información, y afectar a su vida de esta manera tan impactante.
Al final, utilizar sistemas de reconocimiento facial es una herramienta de indicio más, pero no contrastar la información antes de dar un paso más que pueda afectar a la vida de las personas debería ser algo a hacer mucho cuidado, encima cuando estamos en un mundo donde las DeepFakes podrían suplantar a cualquiera en cualquier situación sin que se pudiera discernir si es real o falso en muy poco tiempo.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Powered by WPeMatico