Seminario de sesgos

Desafíos éticos en la aplicación de sistemas automáticos de reconocimiento facial

Patricia Díaz de Datysoc y Javier Preciozzi de la Facultad de Ingeniería expusieron en el seminario II sobre el uso de sistemas de reconocimiento facial en Uruguay. 

¿Qué es el reconocimiento facial automático y cómo se automatiza? ¿Qué sesgos se originan y por qué?

La humanidad utiliza sistemas biométricos de reconocimiento de identidades desde principios del siglo XX, gracias a las huellas dactilares, que permiten conformar un sistema biométrico con un simple registro en papel y sin automatismos. Las huellas son nobles para los científicos gracias a algunas particularidades: su dibujo tiene valles, crestas. Además, existen las llamadas minucias, que son aquel lugar donde se bifurcan las rayitas y… ¡son únicas!. Esto hace relativamente fácil de definir qué huella es igual a otra y por lo tanto, verificar identidades. 

En los rostros no se pudo resolver, hasta ahora, el problema de sistematizar qué cosas hacen único a un rostro. Surge la necesidad del aprendizaje automático: como no sabemos exactamente qué rasgos de las caras hacen únicas a las personas, se apela a las redes neuronales. 

“Si bien hay sistemas de reconocimiento facial previos al año 2010, que en algunos contextos funcionaban bien, lo cierto es que no se supo extraer características suficientemente robustas para identificar que una persona es la misma en una serie de fotos”, sostuvo Javier Preciozzi.  

Esto se da porque, desde el año 2010, se extendió el uso de redes neuronales: al no saber cómo construir la plantilla característica de cada cara (construcción matemática similar a una grilla), dejamos que la red aprenda.  

Lo cierto es que “no se tiene una comprensión cabal” de cómo construye la red neuronal esa plantilla, explicó Preciozzi.

El sesgo biométrico se genera no sólo por el aprendizaje automático 

El problema es que la base de datos puede no ser suficientemente buena para entrenar la red y generar sesgos. Es decir, si la mayoría de los rostros son de personas blancas, la red neuronal no aprenderá bien en personas con otras características. 

El sesgo biométrico no es nuevo ni solo por las redes neuronales: las huellas dactilares casi no funcionan en niños. “Los scanners son de un tamaño para una huella de un adulto, el algoritmo de compresión de imágenes está hecho para un tamaño adulto. Es decir, estuvo pensado para la criminología.” sostuvo Preciozzi. 

Por tanto, para el manejo de sesgos biométricos es recomendable entender que existen para medirlos y analizarlos, determinar si son relevantes y ajustar aspectos técnicos como la cantidad de datos o umbrales para la toma de decisión. 

Cambios recientes en el equipamiento estatal y legal en Uruguay   

En febrero de 2020 el Ministerio del Interior (MI) adquirió un software de reconocimiento facial automático (RFA) a través del proceso de licitación y en diciembre del mismo año se aprobó la creación de una base de identificación facial con fines de seguridad pública.

 Así es que Patricia Díaz, desde la organización Datysoc, sostuvo: “¡A investigar! ¿Cómo se va a implementar el software y su base biométrica?”. 

La Dirección Nacional de Identificación Civil está dentro de la órbita del MI, pero no está creada para esos fines. El problema de una posible vigilancia automatizada debe tomarse en cuenta, ya que la Constitución uruguaya y múltiples declaraciones de derechos humanos del sistema internacional la prohíbe. 

Díaz lo dejó claro: “Uruguay no es el único país que está usando esto”, y para el uso en el mundo se recomienda “una regulación más rigurosa de las exportaciones de equipos de vigilancia y restricciones más estrictas sobre su utilización, así como una moratoria inmediata sobre la venta hasta que se establezcan estrictas salvaguardas a los derechos humanos a estas prácticas de vigilancia y se pueda garantizar que se usarán de un modo leǵitimo”. 

¿Qué se recomienda para evitar la vigilancia masiva estatal? 

Pensando en sesgo, el Comité para la Eliminación de la Discriminacion Racial de Naciones Unidas elaboró recomendaciones: se solicita que antes de contratar e implementar los sistemas de RFA debe determinarse para qué se va a usar, permitir que los investigadores y la sociedad civil puedan auditar el sistema y los potencialmente afectados deben participar del proceso para asegurar la transparencia.

También se debe evitar la vigilancia masiva que es “cuando se hace de forma ilegítima, innecesaria y desproporcionada”, y cuando se invierte el principio de inocencia al tratar a todos de potenciales criminales. 

¿Qué puede hacer el software de la policía uruguaya? 

-Crear plantillas de todos los ciudadanos mayores de edad. 

-Usar una foto o grabación de la escena de un delito para compararla con la base de plantillas faciales de toda la ciudadanía.

-Crear perfiles y listas de plantillas faciales de “personas de interés policial”. El uso de listas ya existe, el tema es que quede indefinido. 

-Usar el RFA para confirmar o averiguar la identidad en la vía pública. 

-Aplicar RFA en tiempo real e integrar con sistemas de cibervigilancia 

Hallazgos y recomendaciones

Existe una ausencia de base legal del uso de RFA en Uruguay, ya que la ley de Protección de Datos Personales (Ley N° 18.331) no puede controlar su alcance y no llega jerárquicamente a controlar las bases de seguridad pública del MI.  Por otra parte, la ley Orgánica Policial como parte de sus fines, contiene expresiones vagas como “investigar delitos” y expresamente es lo que los juristas en derechos humanos solicitan evitar. 

Por tanto, se recomienda:  

-Regular el uso (así como pasa en el deporte, que al menos hay alcances claros). 

-Prohibir la inclusión masiva de toda la población en las bases de datos.

-Prohibir la vigilancia masiva y crear mecanismos que evalúen los riesgos de estas tecnologías.

-Promover la participación ciudadana e impulsar la transparencia.  

Ver el seminario completo en YouTube, clic aquí.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *