En 2015 el ingeniero informático Jacky Alciné publicó una captura de pantalla en la que el sistema de reconocimiento automático de Google Photos había etiquetado sin ningún problema fotos de aviones, rascacielos, graduaciones y bicicletas, pero había confundido a sus amigos de raza negra con Gorilas. La compañía recibió una oleada de críticas y, disculpándose, prometió tomar “acción inmediata” para resolver este vergonzoso problema.
Un estudio de la revista Wired reveló que, casi tres años después, Google aún no ha arreglado el algoritmo como se esperaba y en vez de solucionar las tendencias racistas en la aplicación ha lidiado con ella de una forma mucho más simple: dejando de etiquetar del todo a los gorilas, monos y chimpancés en Google Photos.
El estudio también reveló que Google había restringido las búsquedas específicamente ligadas con la raza en su gestor de imágenes personales – no en las búsquedas del navegador. Por ejemplo, las búsquedas de “hombre negro” o “mujer negra” sólo resultan en imágenes en blanco y negro de hombres y mujeres: la categoría de género se mantiene, pero el componente racial se omite por completo.
No se conocen las razones por las que Google decidió optar por este arreglo temporal en vez de buscar el problema en el algoritmo y solucionarlo: es posible que exija muchos recursos o que simplemente se haya llevado la cautela al extremo.
No es una tarea fácil volver a educar a un algoritmo de inteligencia artificial para erradicar de raíz estos prejuicios y hacerlo más inclusivo. Esto es un ejemplo de por qué se describe a las nuevas tecnologías como una “caja negra”: se alimenta con información y produce grandes resultados, pero no se termina de comprender del todo cómo llega a estas conclusiones, lo que hace que sea difícil desarrollar soluciones efectivas a problemas tan puntuales.
“La tecnología de etiquetado de imágenes sigue en pañales y por desgracia le falta mucho para perfeccionarse”, dijo Google a la revista Wired. Sin embargo, otras tecnologías incluso dentro de la misma compañía, como Google Assistant y Google Cloud Vision, mantienen a estos primates en las categorías de etiquetado de imágenes.
“La forma de arreglar el problema es borrar el problema”, escribió Javier Salas en un artículo que publicó al respecto en El País. “Flickr generó un problema similar, al etiquetar a negros como simios. El algoritmo de Facebook permitía discriminar por su raza a los usuarios. Estos subproductos inesperados están por todas partes”, agregó Salas.
Esto es un recordatorio de que la inteligencia artificial también tiene un componente humano: ha sido desarrollada por personas, y los prejuicios y visiones del mundo de este grupo particular de personas termina reflejándose en el producto final. Es por eso que ahora que la tecnología ha avanzado lo suficiente como para evidenciar estas situaciones se está comenzando a debatir sobre la importancia de tener un equipo diverso de desarrolladores para que los productos sean más inclusivos y se eviten errores tan dañinos como éste.
Fuentes
Google arregla su algoritmo ‘racista’ borrando a los gorilas El País
Google ‘fixed’ its racist algorithm by removing gorillas from its image-labeling tech The Verge
Google’s solution to accidental algorithmic racism: ban gorillas The Guardian
Google “arregla” un algoritmo racista de Google Photos… desterrando a los gorilas