Noticias

Controversia por los miles de falsos positivos del sistema de reconocimiento facial de la policía de Gales

El sistema de reconocimiento facial que utiliza la Policía de Gales está causando controversia después de que se revelara que confunde a ciudadanos inocentes con criminales más del 90% de las veces.

Las autoridades pusieron a prueba este sistema en múltiples ocasiones, en eventos específicos de convocatoria masiva que garantizaran la numerosa afluencia de personas, y compararon los rostros de los transeúntes con imágenes de su base de datos de criminales buscados. Los resultados de estas pruebas acaban de ser publicados de forma oficial en su página web y demuestran que el sistema trae indudables beneficios, pero todavía está muy lejos de ser perfecto.

La final de la Liga de Campeones de la UEFA que se realizó en junio pasado en Gales fue la primera ocasión en que las cámaras de reconocimiento facial se usaron en un entorno real y con repercusiones reales. En esa ocasión, el sistema identificó de forma automática a 2.470 sospechosos, de los cuales 2.297 fueron falsos positivos y 173 eran los verdaderos criminales que aparecían en los registros policiales.

La policía alegó que la falta de precisión de los resultados se debió a la baja calidad de las imágenes en su base de datos. También recordó que era la primera vez que se ponía en uso este sistema, por lo que todavía podía recibir algunos ajustes.

Pero las pruebas siguientes no fueron muy diferentes: en octubre de 2017 la policía mejoró el algoritmo y ese mismo mes lo utilizó para vigilar al público de la pelea de boxeo entre Anthony Joshua y Kubrat Pulev. A pesar de las mejoras, el sistema identificó un 90% de falsos positivos, lo que significa que tuvo 46 errores, pero también puso en manos de las autoridades a cinco criminales prófugos de la justicia. Cifras similares se detectaron en el encuentro internacional de Rugby de Gales versus Australia, en el que el sistema tuvo seis aciertos y 42 desaciertos.

El sistema ha recibido duras críticas de investigadores y defensores de la privacidad. “Un falso positivo automáticamente convierte en sospechoso a una persona inocente”, opinó Martin Evison, profesor de ciencia forense de la Universidad de Northumbria que estudió en profundidad las técnicas de reconocimiento de la policía. “Si quieres atrapar a un sospechoso, debes configurar el umbral para que su campo de acción sea suficientemente amplio, lo que inevitablemente traerá consigo un mayor número de falsos positivos”.

“Estas cifras demuestran que los sistemas de reconocimiento facial son una amenaza a las libertades civiles y una herramienta peligrosamente imprecisa”, dijo Silkie Carlo, director del grupo de derechos civiles Big Brother Watch, que está iniciando una campaña en el parlamento contra estos sistemas. “Las estadísticas de la policía demuestran que estas tecnologías identificaron erróneamente a miembros inocentes de la sociedad en cantidades aterradoras, mientras que sólo fueron un aporte real a la ley una cantidad muy limitada de veces”.

Sin embargo, las autoridades defienden el sistema y aseguran que sus esfuerzos no fueron en vano: a pesar de las dificultades y errores, la policía logró identificar a más de 2.000 personas y concretar más de 450 arrestos gracias a esta tecnología. “Hasta ahora, los arrestos incluyen seis años en prisión por robo y cuatro y medio por hurto”, explicó la policía. Esta tecnología también ha ayudado a identificar a personas vulnerables en situaciones de crisis”, agregó. Uno de estos casos fue el de un hombre que se suicidó en el río en noviembre de 2017 y pudo ser identificado gracias a este sistema de reconocimiento facial.

La policía también aseguró que las autoridades están conscientes de los errores que esta tecnología puede cometer y no arrestan a nadie sólo porque el sistema lo indica. “Todos los sistemas de reconocimiento facial tienen problemas técnicos, lo que significa que los falsos positivos siempre serán un problema para los desarrolladores”.

Fuentes
A facial recognition program used by British police yielded thousands of false positives • The Verge
Facial recognition tech used by UK police is making a ton of mistakes • Wired
Welsh police wrongly identify thousands as potential criminals • The Guardian

Controversia por los miles de falsos positivos del sistema de reconocimiento facial de la policía de Gales

Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

 

Informes

MosaicRegressor: acechando en las sombras de UEFI

Encontramos una imagen de firmware de la UEFI infectada con un implante malicioso, es el objeto de esta investigación. Hasta donde sabemos, este es el segundo caso conocido en que se ha detectado un firmware malicioso de la UEFI usado por un actor de amenazas.

Dark Tequila Añejo

Dark Tequila es una compleja campaña maliciosa que tiene por objetivo a los usuarios ubicados en México, con el propósito principal de robar información financiera, así como credenciales de acceso a sitios populares que van desde versionado de código fuente a cuentas de almacenamiento de archivos en línea y de registro de dominios web.

Suscríbete a nuestros correos electrónicos semanales

Las investigaciones más recientes en tu bandeja de entrada