lunes, noviembre 25, 2013

Las diabluras del Google autocomplete

Dicen que a través del computador se puede escuchar lo que está pensando el mundo. Pero al mismo tiempo nos advierten que la realidad no está en la pantalla.

Una campaña de la ONU Mujeres que usa la herramienta Google autocomplete -esa que trata de adivinar qué estamos buscando apenas empezamos a escribir algo en su ventanilla de búsqueda- para argumentar que el sexismo es prevalente, ilustra las dos caras de la moneda.

Las imágenes son impactantes (ver arriba). Sobre la boca del rostro de cada mujer aparece una búsqueda en inglés en Google con frases incompletas, como "las mujeres no deben", y las opciones que aparecen abajo, en este caso: "tener derechos; votar; trabajar; boxear".

Las otras frases, "las mujeres no pueden", "las mujeres deben", "las mujeres necesitan", arrojan resultados igualmente perturbadores.

El argumento de la campaña es que Google autocomplete deja entrever la psiquis colectiva, pero ¿es cierto?
"No, en el sentido que la campaña de la ONU sugiere", señala el especialista Tom Chatfield.
"Autocomplete es sesgado y deficiente en muchos aspectos, y nos exponemos a problemas si nos olvidamos de eso. De hecho, hay muchas razones para no usarlo del todo", señala, haciendo eco de la opinión de muchos de los más diestros usuarios de la web.

Lo que no se ve

Dado que la herramienta funciona tan bien, los resultados parecen verdaderos: para saber qué está pensando "todo el mundo", sólo hay que empezar a escribir y la respuesta aparece antes de terminar de formular la pregunta.

Pero las apariencias engañan, y si nos dejamos arrastrar por ellas, nos arriesgamos a que nuestra versión de la realidad quede a merced de los algoritmos.

"Como con cualquier algoritmo de búsqueda, autocomplete tiene su mezcla secreta de data bajo su descomplicada interface. El lenguaje, la localización y el momento en el que se hace la búsqueda son factores clave para los resultados, así como mediciones de impacto y nivel de atracción, además del historial de exploración de la persona y la novedad del tema", explica Chatfield.

Eso quiere decir que, por ejemplo, si yo busco lo mismo que la ONU Mujer en español, el resultado puede ser distinto.

Veamos

Google autocomplete: las mujeres no deben

Así como le dijo el 9 de marzo de 2013 a los de la campaña de la ONU, Google autocomplete me sugirió a mí el jueves 21 de noviembre al mediodía que las mujeres no debemos trabajar, sólo que en mi caso es la primera opción, no la tercera. Pero las otras recomendaciones -predicar, sudar ni jugar con armas- no coinciden con los del afiche de la campaña.

En cuanto al lugar en el que se originan las búsquedas, en mi definitivamente no científico experimento, a mi sobrina Nicole en Bogotá a mi colega Eulimar en Miami, el algoritmo no les sugiere que dejen de trabajar como a mí en Londres, pero a las tres nos señala que no debemos predicar. Al parecer, tendríamos que revisar cualquier aspiración a hacer carrera en la Iglesia.

Y tampoco debemos sudar, aunque ese resultado refleja más bien la popularidad de una canción con ese título.

Pero mientras que yo en Londres me puedo vestir como quiera, al otro lado del Atlántico "las mujeres no deben usar pantalones".

Google autocomplete: las mujeres no deben - Nicole

Resultados de Nicole en Bogotá, Colombia, del martes 12 de noviembre al mediodía.

Google autocomplete: las mujeres no deben - Eulimar
Resultados de Eulimar en Miami, Estados Unidos, el jueves 21 de noviembre al mediodía.
Entusiasmada con el experimento, me fijé también en otros temas, como las nacionalidades (ver recuadro).

Falsa premisa

Básicamente, los conocedores insisten en que tengamos presente que la herramienta de Google sugiere palabras para completar una consulta, basándose en los conocimientos adquiridos por la compañía a través de las billones de búsquedas que se hacen en todo el mundo a diario.

Según Google autocomplete...

  • Los mexicanos son racistas, latinos, indios y feos
  • Los argentinos son creídos, latinos, racistas y lindos
  • Los colombianos son guapos, feos, como mi café y lindos
  • Los venezolanos son flojos, latinos, guapos y creídos
  • Los peruanos son feos, guapos, indios y lindos

"No da una imagen completa sino que anticipa lo que uno quiere -subraya Chatfield-. No se trata de la pura verdad, sino de 'relevancia'", y esta diferencia es crucial.

Por ello, al especialista le preocupan las reacciones a la campaña de la ONU Mujer pues muestran "una confianza en la pericia algorítmica que bordea en la fe ciega".

Para ilustrar, cita la declaración que aparece en el comunicado de la ONU de Kareem Shuhaibar, redactor de la campaña: "Los anuncios son impactantes porque muestran el largo camino que aún queda por recorrer para lograr la igualdad de género. Se trata de una llamada de atención, y esperamos que el mensaje llegue muy lejos".

"Implica que los resultados son alarmantes precisamente porque son imparciales: una evidencia inequívoca de la existencia del prejuicio a escala global. No obstante, aunque el objetivo de la campaña es bien fundado, la evidencia de Google dista de serlo", apunta Chatfield.

Pero los resultados que arroja Google autocomplete no deben desestimarse, dijo ONU Mujer.

"Efectivamente, el algoritmo que determina los resultados se basa en varios factores. Uno de ellos es la popularidad de los términos de búsqueda; es por eso que es razonable decir que los resultados dan una buena indicación de los sentimientos prevalecientes. La meta de la campaña es reflejar esas tendencias en la opinión y provocar el debate, sin pretender que está proporcionando datos exactos", aclara el organismo.

Más allá de la campaña

Las mujeres no pueden / ONU Mujer
Las mujeres deben... quedarse en casa, ser esclavas, estar en la cocina, no hablar en la iglesia.

"El peligro más serio es el poder que tiene un generador de respuestas instantáneas no sólo de reflejar sino moldear lo que el mundo cree, y de hacerlo en un nivel que va por debajo del debate consciente", advierte Chatfield.

"Al dejar que un algoritmo complete nuestros pensamientos, contribuimos a retroalimentar un sistema que potencialmente refuerza falsedades y errores que aparecerán en las búsquedas de futuros investigadores".
Falsedades como los casos de un japonés que, a principios de este año, escribió su nombre en Google y descubrió que el autocomplete lo asociaba con actos criminales. O el del cirujano australiano al que le perseguía la palabra "bancarrota". Ambos llevaron sus casos con éxito a las cortes, pero hay varios ejemplos como los de ellos.

Son traspiés de un sistema que, a través de la colaboración entre humanos y máquinas, ahorra tiempo, errores y frustraciones, señala Google: "incluso cuando usted no sabe exactamente qué está buscando, las predicciones guían su búsqueda".

"Google ha creado un sistema que presume conocer no sólo mis deseos sino a toda la humanidad mejor que yo mismo. Pero cabe preguntarse si tener a una computadora murmurándonos al oído constantemente no puede cambiar lo que pensamos sobre el mundo", cuestiona Chatfield.

Nota: Google autocomplete se puede desactivar con sólo cambiar la preferencia en la configuración de Google.