Noticias

Google “arregla” un algoritmo racista de Google Photos… desterrando a los gorilas

En 2015 el ingeniero informático Jacky Alciné publicó una captura de pantalla en la que el sistema de reconocimiento automático de Google Photos había etiquetado sin ningún problema fotos de aviones, rascacielos, graduaciones y bicicletas, pero había confundido a sus amigos de raza negra con Gorilas. La compañía recibió una oleada de críticas y, disculpándose, prometió tomar “acción inmediata” para resolver este vergonzoso problema.

Un estudio de la revista Wired reveló que, casi tres años después, Google aún no ha arreglado el algoritmo como se esperaba y en vez de solucionar las tendencias racistas en la aplicación ha lidiado con ella de una forma mucho más simple: dejando de etiquetar del todo a los gorilas, monos y chimpancés en Google Photos.

El estudio también reveló que Google había restringido las búsquedas específicamente ligadas con la raza en su gestor de imágenes personales – no en las búsquedas del navegador. Por ejemplo, las búsquedas de “hombre negro” o “mujer negra” sólo resultan en imágenes en blanco y negro de hombres y mujeres: la categoría de género se mantiene, pero el componente racial se omite por completo.

No se conocen las razones por las que Google decidió optar por este arreglo temporal en vez de buscar el problema en el algoritmo y solucionarlo: es posible que exija muchos recursos o que simplemente se haya llevado la cautela al extremo.

No es una tarea fácil volver a educar a un algoritmo de inteligencia artificial para erradicar de raíz estos prejuicios y hacerlo más inclusivo. Esto es un ejemplo de por qué se describe a las nuevas tecnologías como una “caja negra”: se alimenta con información y produce grandes resultados, pero no se termina de comprender del todo cómo llega a estas conclusiones, lo que hace que sea difícil desarrollar soluciones efectivas a problemas tan puntuales.

“La tecnología de etiquetado de imágenes sigue en pañales y por desgracia le falta mucho para perfeccionarse”, dijo Google a la revista Wired. Sin embargo, otras tecnologías incluso dentro de la misma compañía, como Google Assistant y Google Cloud Vision, mantienen a estos primates en las categorías de etiquetado de imágenes.

“La forma de arreglar el problema es borrar el problema”, escribió Javier Salas en un artículo que publicó al respecto en El País. “Flickr generó un problema similar, al etiquetar a negros como simios. El algoritmo de Facebook permitía discriminar por su raza a los usuarios. Estos subproductos inesperados están por todas partes”, agregó Salas.

Esto es un recordatorio de que la inteligencia artificial también tiene un componente humano: ha sido desarrollada por personas, y los prejuicios y visiones del mundo de este grupo particular de personas termina reflejándose en el producto final. Es por eso que ahora que la tecnología ha avanzado lo suficiente como para evidenciar estas situaciones se está comenzando a debatir sobre la importancia de tener un equipo diverso de desarrolladores para que los productos sean más inclusivos y se eviten errores tan dañinos como éste.

Fuentes

Google arregla su algoritmo ‘racista’ borrando a los gorilas El País

Google ‘fixed’ its racist algorithm by removing gorillas from its image-labeling tech The Verge

Google’s solution to accidental algorithmic racism: ban gorillas The Guardian

Google “arregla” un algoritmo racista de Google Photos… desterrando a los gorilas

Su dirección de correo electrónico no será publicada.

 

Informes

MosaicRegressor: acechando en las sombras de UEFI

Encontramos una imagen de firmware de la UEFI infectada con un implante malicioso, es el objeto de esta investigación. Hasta donde sabemos, este es el segundo caso conocido en que se ha detectado un firmware malicioso de la UEFI usado por un actor de amenazas.

Dark Tequila Añejo

Dark Tequila es una compleja campaña maliciosa que tiene por objetivo a los usuarios ubicados en México, con el propósito principal de robar información financiera, así como credenciales de acceso a sitios populares que van desde versionado de código fuente a cuentas de almacenamiento de archivos en línea y de registro de dominios web.

De Shamoon a StoneDrill

A partir de noviembre de 2016, Kaspersky Lab observó una nueva ola de ataques de wipers dirigidos a múltiples objetivos en el Medio Oriente. El programa malicioso utilizado en los nuevos ataques era una variante del conocido Shamoon, un gusano que tenía como objetivo a Saudi Aramco y Rasgas en 2012.

Suscríbete a nuestros correos electrónicos semanales

Las investigaciones más recientes en tu bandeja de entrada