La IA y sus accidentes más brutos

(Foto: Especial)

Cada día que pasa, las tecnologías conectadas invaden nuestras vidas más y más. Puede que no nos demos cuenta de lo normal que se ha vuelto pedirle a Siri, Alexa o Google que interprete nuestra experiencia humana o que esperemos que nuestros coches respondan a las normas de tráfico lo bastante rápido para no tener un accidente.

A algunos les preocupa tecnologías como la de las cámaras de vigilancia que usan sus imágenes con software de reconocimiento facial, pero eso a muchos no les importa.

Hoy por hoy, es fácil reírse de los fallos de la IA (Inteligencia Artificial) porque, a fin de cuentas, tienen gracia (solo hay que olvidarse de las posibles consecuencias fatales). Pero creemos que a medida que los dispositivos sigan adelante y el malware continúe evolucionando, eso cambiará. Veamos algunos incidentes causados por fallos de la IA.

Aunque usemos aprendizaje automático cuyo software se vuelve más inteligente con la experiencia, la inteligencia artificial nunca será como la inteligencia humana. Las máquinas son rápidas, coherentes e incansables, lo que complementa a la intuición e inteligencia humanas.

La debacle de las casas de muñecas

En enero de 2017, en San Diego, California, un canal de televisión emitió un apartado de noticias interesante sobre las vulnerabilidades de los altavoces Amazon Echo (equipados con el asistente virtual Alexa).

El sistema no es capaz de distinguir las voces de las personas, explicó el presentador del programa, lo que significa que Alexa sigue las órdenes de cualquiera que esté cerca. Como resultado, unos niños empezaron a realizar compras online, sin saber la diferencia entre pedirles a sus padres que les dieran de comer y pedir a Alexa que les diera un juguete.

Luego, uno de los colaboradores dijo en la tele: “me encanta esa niña que dijo ‘Alexa, cómprame una casa de muñecas'”. Las quejas no tardaron en llegar. Gente de todo San Francisco informó de que sus asistentes de voz realizaron compras espontáneas de casas de muñecas. Alexa interpretó la frase del televisor como una orden y la cumplió.

Amazon aseguró a las víctimas de la rebelión de la IA que podían cancelar sus pedidos sin pagar nada.

El anuncio de comida rápida

Era cuestión de tiempo y al final la empresa que se ha atrevido a hacerlo es Burger King. En el último anuncio de la popular cadena de hamburguesas en Estados Unidos se aprovecha de la buena fe de los asistentes virtuales para llevar su mensaje al oído de los espectadores. "No tenemos tiempo suficiente para explicar todos los ingredientes de una Whopper pero tengo una idea... Ok, Google, ¿qué es una hamburguesa Whopper?", pregunta el actor protagonista del anuncio.

En los hogares que tienen un Google Home o algunos teléfonos Android cerca de la pantalla lo que sigue a este anuncio es la respuesta desde el asistente, extraída de la entrada de la Wikipedia y pronunciada a través del altavoz o el teléfono.

Burger King ha aprovechado que estos dispositivos están siempre a la escucha para secuestrarlos unos segundos y obligarles a recitar una descripción de la hamburguesa que, a pesar de venir de Wikipedia, suena muy parecida a un anuncio.

Hay truco, claro. Todo apunta a que los responsables de marketing de la cadena de comida rápida editaron la entrada de la Wikipedia semanas antes de comenzar a emitir el anuncio para añadir una descripción claramente favorecedora del producto.

De nuevo, dispositivos como Alexa o Google Home no discriminan según el tono de voz porque están diseñados para poder ser usados por cualquiera que esté en casa

La confusión de Cortana

La tecnología le jugó una mala pasada en plena demostración al CEO de Microsoft, Satya Nadella. Durante una presentación en vivo Cortana, el asistente de voz de Microsoft, ridiculizó al director de esta firma.

Nadella, quien se encontraba frente a una numerosa audiencia, le ordenó a Cortana que le mostrara "sus mayores oportunidades de riesgo", a lo que el asistente de voz le brindó una respuesta completamente diferente tras entender: “enséñame a comprar leche en esta oportunidad”.

Tras la risa de los asistentes, Nadella lo volvió a intentar un par de veces más sin obtener resultados positivos de su búsqueda.

Luego de los intentos, el ejecutivo se abstuvo de seguir con la búsqueda a través de Cortana y prefirió realizarla de manera manual.

El momento se transmitió en vivo y algunos usuarios de redes sociales lo captaron.

Engañando al reconocimiento facial

A tus amigos puede que no les engañe un par de lentes, pero un equipo de investigadores de la Universidad Carnegie Mellon demostraron que cambiar esa pequeña parte de ti es suficiente para que, a los ojos de la máquina, seas una persona diferente.

Desarrollaron una par de gafas que impresas en 3D. Las gafas, según el estudio, engañan a sistemas avanzados de reconocimiento facial alterando el color de algunas partes del rostro, las utilizadas por los sistemas de reconocimiento. Según los investigadores unas gafas de este tipo gafas sirven tanto para suplantar una identidad como para evitar ser reconocido.

Lo mejor es que los investigadores pudieron imitar a una persona en concreto al imprimir algunos patrones sobre el marco de las gafas.

Los investigadores lograron hacerse pasar por famosos.

El contratiempo con las señales de tráfico

¿Y qué hay del reconocimiento de las señales de tráfico por parte de los coches autónomos? ¿Es mejor que el reconocimiento facial? Pues… no.

Otro grupo de investigadores demostró que el reconocimiento de señales también puede fallar. Los pequeños cambios que una persona ignoraría hicieron que el sistema de aprendizaje automático clasificara por error la señal de STOP por la de “límite de velocidad a 45”.

Y no se trató sólo de un error aleatorio, sino que sucedió en todas las condiciones de la prueba.

El panda invisible

¿Cuánto hay que alterar la información de entrada para engañar al aprendizaje automático? Te sorprendería lo sutil que puede llegar a ser este cambio.

Para el ojo humano no hay diferencia entre las dos imágenes siguientes, mientras que una máquina estaba del todo segura de que eran objetos completamente diferentes (un panda y un gibón, respectivamente).

Curiosamente, la máquina reconocía el ruido que se añadió a la foto como nematodo (una especie de gusano).

La terrible Tay

El chatbot experimental de Microsoft, una IA llamada Tay.ai, en teoría tenía que imitar a una adolescente y aprender de sus interacciones con las redes sociales. Pero resultó que los humanos somos monstruos y Tay se convirtió en una nazi. La IA puede crecer, pero su calidad y características dependen de los humanos.

Tesla se estrella

El mayor error hasta la fecha, y puede que el más conocido, viene de Tesla, pero no podemos culpar al sistema, ya que, a pesar de llamarse piloto automático, este no debe tener el control total de la conducción. La investigación reveló que el conductor no actuó correctamente al ignorar las advertencias como las de mantener las manos puestas en el volante o la de que se estaba superando el límite de velocidad permitido. Además, no actuó durante los más de 7 segundos en los que el camión que le mató fue visible.

Puede que un piloto automático hubiera podido evitar el accidente, pero, a estas alturas, lo que sabemos en realidad es que no excedió sus parámetros y eso es algo que esperamos que no haga un software.

FV/I