Luces y sombras del reconocimiento facial

Visitantes observan una pantalla con un sistema de reconocimiento facial en la Global Mobile Internet Conference en Pekín./EFE
Visitantes observan una pantalla con un sistema de reconocimiento facial en la Global Mobile Internet Conference en Pekín. / EFE

Estos sistemas todavía se equivocan en exceso con la población asiática o con los hombres negros

ARANTXA HERRANZMadrid

Mirar el teléfono y que se active la pantalla. Que la aplicación de fotos sepa reconocer a las personas que aparecen en las fotografías. Una red social que informe cuando alguien ha subido una foto en la que aparecemos. Sistemas de videovigilancia en aeropuertos o en gafas inteligentes que identifiquen a los criminales más buscados. Las posibilidades del reconocimiento facial son numerosas. Pero sigue habiendo cuestiones por resolver, como la protección de datos, la seguridad y la equidad en el reconocimiento de todas las razas.

Las tecnologías de reconocimiento facial se están utilizando en diversos ámbitos, desde el más doméstico hasta la seguridad nacional. Por ejemplo, el Gobierno de la India lo está empleando para encontrar a niños desaparecidos. En el Reino Unido, algunos medios de comunicación lo utilizan para detectar la presencia de famosos en las bodas reales. Muchos teléfonos lo emplean para que se pueda desbloquear la pantalla y podamos utilizarlo sin necesidad de utilizar la huella dactilar, un código numérico o un patrón de dibujo. Y, no sin cierta polémica, esta tecnología también se utiliza en un número creciente de contextos por los organismos encargados de hacer cumplir la ley.

Hombres blancos

La polémica que suele rodear el uso y aplicación de esta tecnología no es nueva. De hecho, hace tiempo, Google Fotos o Flickr etiquetaron las imágenes de personas negras como «gorilas» o «simios», lo que generó (evidentemente) mucha controversia. Desde entonces, los desarrolladores de sistemas de reconocimiento facial se han esforzado mucho para ir mejorándolos, pero en la actualidad siguen teniendo importantes fallos. Según un estudio realizado por Joy Buolamwini, investigadora del MIT Media Lab, sobre inteligencia artificial (IA), algoritmos y prejuicios, el reconocimiento facial es más preciso para los hombres blancos y tiene muchos más fallos para las personas de piel más oscura, especialmente las mujeres. Más concretamente, este informe señalaba que las aplicaciones de Microsoft e IBM (entre otras) identificaron erróneamente a las mujeres de piel más oscura el 35% de las veces y a los hombres de piel más oscura el 12%.

Todos los sistemas de reconocimiento facial funcionan mediante el análisis y comparación de imágenes nuevas con las que ya están almacenadas en su base de datos. A medida que el número de imágenes crece, el 'software' mejora sus capacidades para encontrar patrones e identificar individuos. El problema, como en otras áreas de la inteligencia artificial, está relacionado muchas veces con el sesgo desde el que parten.

Así, estas aplicaciones de reconocimiento facial están 'entrenadas', en la mayoría de los casos, con fotografías de hombres blancos. En menor número, también se aportan fotografías de mujeres, con prevalencia de las de raza blanca. Precisamente por eso, las tasas de error de este estudio del MIT son más altas en el caso de las mujeres, porque la base de datos de caras disponibles sobre las que aprenden estas máquinas es menor. En los últimos meses, los principales proveedores aseguran que han diversificado sus conjuntos de datos para incluir rostros de colores más oscuros y diversos y han logrado avances para reducir el sesgo. Microsoft asegura que la nueva versión de su herramienta de software Face API ya solo tiene una tasa de error para mujeres de piel más oscura del 1,9% de los intentos.

Un estudio del MIT afirma que las aplicaciones identificaban mal al 35% de las mujeres con piel oscura

IBM, por su parte, señala que Watson Visual Recognition se equivoca el 3,5% del tiempo. Tanto IBM como Microsoft reconocen que sus resultados no han sido verificados de manera independiente y que las tasas de error en el mundo real podrían ser diferentes a las de sus colecciones de imágenes.

Este problema también pasa con las personas asiáticas. En muchas ocasiones, estos sistemas no reconocen bien a estas personas o aseguran que tienen los ojos cerrados. Algo que, en ciertos usos, conlleve que los sistemas aseguran que son fotos no válidas.

Y eso que son muchos los países asiáticos, especialmente China, los que están usando estas tecnologías de reconocimiento facial en aeropuertos y en sistemas de videovigilancia. En Malasia, por ejemplo, se asegura que el éxito de esta tecnología alcanza el 80% y que ello está ayudando a reducir el tiempo de espera en las operaciones de embarque (pasando de una media de entre once y trece minutos a una espera de entre nueve y diez minutos).

En conflicto con la intimidad

Con la llegada del nuevo Reglamento General de Protección de Datos (RGPD), Facebook informaba a sus usuarios de que podían activar o denegar su sistema de reconocimiento facial. La red social animaba a activar esta tecnología, alegando que ayudaría a evitar que un extraño o desconocido subiese fotos sin permiso o para hacerse pasar por el usuario. El RGPD se centra especialmente en la biometría, reconociendo claramente el inmenso potencial de la tecnología y reclamando que los derechos de los ciudadanos se protejan adecuadamente, de forma que los datos recopilados por las organizaciones privadas y públicas sean manejados con cuidado y sensatez. Esta normativa regula estos datos biométricos y prohíbe su procesamiento con el propósito de «identificar de forma única a una persona física».

Pero también establece algunas excepciones. Por ejemplo, que se haya dado consentimiento explícito (como pedía Facebook) o si es necesario para proteger los intereses vitales del individuo y es incapaz de dar su consentimiento. Pensemos, por ejemplo, en el caso de personas desaparecidas.

De hecho, en Estados Unidos el FBI almacena las fotografías del 80% de los ciudadanos. En nuestro país, la Policía Nacional reconocía en 2014 que estaba estudiando la viabilidad del reconocimiento facial, entre otras tecnologías, para mejorar la seguridad de los ciudadanos, para fines tan diversos como dar antes con el paradero de delincuentes o de personas desaparecidas.

Es decir, que tal y como constatan fuentes jurídicas, la policía podría utilizar las fotografías de, por ejemplo, el DNI o los pasaportes y emplear sobre ellas tecnología de reconocimiento facial en aras de la seguridad nacional.

Fotos

Vídeos