- Bogota D.C - Calle 67 N° 7-94 Oficina 604
- 3138834959 - 601 7953297 Ext. 120
El gobierno británico ha puesto en marcha un sistema de identificación facial para su servicio de verificación de las fotos en los pasaportes a pesar de saber que la tecnología falla en personas de algunas minorías étnicas, en especial de piel muy oscura, como las personas negras o del subcontinente indio. Algunos usuarios no han tardado en hacer llegar sus quejas al Gobierno británico, al considerar que la nueva herramienta «de alguna forma perpetúa la visión social equivocada de que las personas negras son más peligrosas».
Ante la polémica, las autoridades británicas se han visto obligadas a defender las bondades de este nuevo sistema y han señalado que «durante la investigación de usuarios, el rendimiento general se consideró suficiente para desplegar la herramienta», pese a que reconocieron que «había algunas dificultades en la identificación de las personas con piel muy clara o muy oscura».
No es un acto responsable ni justo por parte de las autoridades, hay un claro sesgo racial
«Si el sistema se probó antes de ponerlo en marcha, no entendemos por qué lo lanzaron si claramente representa un problema para personas con diferentes tipos de piel. No es un acto responsable ni justo por parte de las autoridades, hay un claro sesgo racial», aseguraron ayer a ABC desde la Comisión de Igualdad y Derechos Humanos del Reino Unido.
El Ministerio del Interior señaló, por su parte, que su intención era que el proceso fuera simple, aunque ya algunos usuarios han denunciado a través de las redes sociales que es todo lo contrario. Cat Hallam, una trabajadora negra de la Universidad de Keele, descubrió que el servicio sugirió erróneamente que tenía los ojos cerrados y la boca abierta. «Lo que es más desalentador de todo esto es que lo sabían», afirmó Hallam a la revista «New Scientist». Y no parece que su uso vaya a suspenderse mientras se mejora, al menos de momento.
De hecho, el aeropuerto de Gatwick (Londres) ya ha anunciado que se convertirá en el primero de Reino Unido en utilizar cámaras de reconocimiento facial de forma permanente para los controles de identidad antes de que los pasajeros aborden los aviones. La medida -esgrimieron las autoridades- «reducirá los tiempos de espera de los viajeros».
La polémica no es nueva. En Estados Unidos ya muchas voces se han levantado contra el sistema de identificación facial sobre todo por su sesgo étnico. Un ensayo llevado a cabo en julio por el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) demostró que algunos software actuales fallan al analizar rostros de mujeres de piel negra respecto a los de blancas.
Facebook o Google, entre otras empresas, han incorporado a muchos de sus servicios sistemas de reconocimiento de rostros. Y han fallado. No son perfectos y, en ocasiones, como sucedió en 2015, se calificaron como «gorilas» a mujeres negras. La razón es que los algoritmos que emplean están «entrenados» a partir de bases de datos que, de por sí, albergan prejuicios y sesgos. Un estudio del MIT concluyó que las aplicaciones identificaban erróneamnete al 35 por ciento de las mujeres con piel oscura.
Las dificultades de la tecnología para extraer información de un grupo denso de personas ha provocado que, en más de una ocasión, presente falsos positivos. De hecho, investigadores de la Universidad de Essex se encargaron de supervisar la fiabilidad del proyecto de la Policía metropolitana de Londres. Sus conclusiones dejaron demasiados sinsabores: el software que garantiza la seguridad de la capital londinense falla en un 81 por ciento de las veces al señalar a sospechosos. «Siempre a toda tecnología le falta perfeccionamiento y es susceptible de mejora. Confiable es, pero es conveniente que exista otro factor de seguridad porque no es 100% seguro», sostiene a este diario Lorenzo Martínez, experto en seguridad informática de Securizame.
Para Juan Luis Rubio, ingeniero y vicerrector de la Universidad a Distancia de Madrid (Udima), es necesario «terminar de mejorar» esta tecnología para obtener resultados más precisos. «Es un proceso muy largo, la identificación de una cara requiere de millones de cálculos. Ha mejorado mucho, pero todavía quedan algunos elementos por resolver dado que existen parámetros que se prestan a confusión», subraya este experto, al tiempo que defiende que «hasta que los algoritmos y la tecnología no estén suficientemente probados es muy arriesgado hacer ensayos a ese nivel».
Desde «pagar por la cara» a desbloquear el móvil, pero siempre con miedo a ser vigilados
Pagar por la cara. Desbloquear tu teléfono móvil. Acceder a tu empresa. Abrir una cuenta bancaria. Y hasta como herramienta en procesos de selección. Las aplicaciones de la tecnología de reconocimiento facial son infinitas. Empiezan a estar en nuestro día a día. A lo largo de los últimos años se ha extendido en numerosos ámbitos a pesar de las dudas que presentan por la posible invasión a la privacidad en algunos aspectos.
China, sin embargo, lleva la delantera en la implementación de este tipo de software preparado para reconocer rostros humanos. Una capacidad que ha permitido, silenciosamente, extender un sistema estatal de vigilancia ciudadana. Un preocupante escenario que se contrapone con la acelerada adopción de los mecanismos biométricos en todo tipo de servicios digitales. Sistemas que, en el pasado, han revelado ciertas carencias técnicas al ofrecer resultados equivocados.
Esta tecnología, aún en pañales, ha llegado a aeropuertos como el de Menorca para eliminar trabas en el embarque o en los autobuses de la EMT (Empresa Municipal de Transportes) de Madrid. Pero incluso por parte de cuerpos de seguridad en eventos deportivos donde generalmente se registra una gran presencia de personas. ¿El objetivo? Detectar a posibles terroristas. La policía británica llevó a cabo un proyecto el pasado año empleando cámaras con sistemas de reconocimiento facial. Era una prueba para comprobar sus capacidades. Los resultados fueron imprecisos.
Gobiernos de todo el mundo han pensado en incorporar estas tecnologías que lo saben todo con solo mirarte a la cara en favor de mejorar la seguridad ciudadana a pesar de las dudas que presenta desde el punto de vista de la privacidad. Y mientras eso ha sucedido también se ha producido una visión alternativa, evitarlo. San Francisco, en el estado estadounidense de California, se convirtió en la primera ciudad en prohibir el uso de esta tecnología para fines institucionales. Otras regiones del país también lo han considerado.
La tecnología ha avanzado más rápidamente que la regulación. «El problema es que son datos personales que mal usados preocupa que queden expuestos al alcance de cualquiera», apunta Dulcemaría Martínez, experta en protección de datos, quien considera que uno de los mayores problemas es que se produzca «una invasión a la intimidad si se utiliza esa información para transgredir los derechos de los ciudadanos, pero lamentablemente no es una información que vaya a conocerse fácilmente». En Europa, rigiéndose por el Reglamento General de Protección de Datos, prohíbe tratar los datos biométricos.
Inscríbete ahora y sé el primero en recibir todas las novedades y actualizaciones exclusivas de nuestra página
Recibe información gratuita y personalizada
Protegemos el activo más importante de tu compañía: ¡Los Datos!