Google no sabe como arreglar su algoritmo ‘racista’, así que elimina a los gorilas

El algoritmo de reconocimiento de Google sigue creyendo que algunas personas negras son gorilas

Por ,
Foto (CC) Rob Schreckhise

Cuando la Inteligencia Artificial no lo es mucho, pasan temas como el del algoritmo racista de Google que se conoció en 2015. En junio de ese año Jacky Alciné publicó un tweet que se hizo viral, donde mostraba como Google Fotos detectaba el rostro de unos amigos como el de gorilas por ser negros. Como era de esperar Google reaccionó a este tema de racismo aclarando que se había solucionado.

En realidad Google no ha solucionado nada y no parece que tenga una respuesta ante una de las preguntas más intrigantes que debemos hacernos: ¿es la inteligencia artificial racista o lo son los programadores que la desarrollan?

Según comenta Wired Google no ha hallado una solución para hacer que su IA entienda que una persona de color no es un gorila. Lo que la empresa ha hecho es eliminar de las búsquedas términos como gorila.

Esta es la única forma que ha encontrado Google, una de las empresas líderes en reconocimiento facial e inteligencia artificial para que su algoritmo no sea racista. Simplemente quitarle de su vocabulario las palabras con las que se las relacionaba.

Captura: @jackyalcine

También se eliminaron resultados mostrando «hombre negro» o «mujer negra». Se muestran resultados de hombres y mujeres vistiendo este color, pero no identifica la raza.

Wired intentó ver si el algoritmo de Google había cambiado y para ello subió cientos de fotos de animales, demostrando que se habían bloqueado los resultados de gorila, chimpancé y mono. Otras búsquedas de primates como orangután o babuino funcionaban bien.

Yonatan Zunger, ingeniero por aquel entonces de Google, comentó que Google ya estaba trabajando en arreglar este tipo de fallos. Tres años después, no hay solución.

«Estamos trabajando en soluciones a largo plazo para en lingüística y en reconocimiento de imagen», comentaba Zunger en una serie de Tweets en junio de 2015.

Según Google «la tecnología de etiquetado de imágenes todavía está en pañales y no es perfecta». La misma empresa que es capaz de hacer que una máquina sepa reconocer carreteras, obstáculos, peatones y señales de todo tipo para sus coches sin conductor, se vea incapaz de arreglar algo como el racismo por similitud en una fotografía plana.

+ Info | Wired, El País

Compartir en:

3 respuestas a “Google no sabe como arreglar su algoritmo ‘racista’, así que elimina a los gorilas”

  1. Agongalyd dice:

    Creo que no teneis mucha idea sobre como funcionan este tipo de sistemas ni de como se entrenan. Yo no diria que, ni el algoritmo es racista ni los «programadores» lo sean.

  2. Juan dice:

    A ver, no nos la cojamos con papel de fumar tampoco.
    No hay racismo por ningún lado. Los algoritmos no son racistas. Simplemente la similitud de un humano negro con un orangután es mayor que la de un blanco, ya que los orangutanes… también son negros. Y teniendo en cuenta que evolutivamente somos casi idénticos, no es extraña la asociación.
    Es simplemente un algoritmo imperfecto y que habrá que pulir, pero no hay motivo alguno para que nadie se sienta ofendido.

  3. Gonzalo dice:

    Entonces Juan ¿por que no salen orangutanes albinos (blancos) buscando hombres blancos?

Últimos vídeos