Tay, o de cómo la Inteligencia Artificial puede salir muy, muy mal

Tay, o de cómo la Inteligencia Artificial puede salir muy, muy mal

Tay, la «twitera» de Windows

I.A. y la prueba de Turing

Durante mucho tiempo hemos soñado con la posibilidad de crear una Inteligencia no humana a partir de las construcciones digitales que caracterizaron el siglo XX (y más recientemente, el XXI). Es más fácil decirlo que hacerlo, y aunque hemos avanzado aún estamos lejos de esa inteligencia… suponiendo, claro, que tal cosa pueda existir.

Pues, ¿qué nos garantiza que una máquina pueda en verdad pensar? ¿No podría un autómata lo suficientemente complejo pasar por un ser pensante? Fue por ello que Alan Turing – el padre de la computación – postuló en 1950 la llamada “Prueba de Turing” que especificaba que si una máquina era capaz de conversar con una persona sin que esta última pudiese notar que no era un ser humano, se hablaría de inteligencia artificial.

Ya en este artículo tratamos el tema con más detalle, bástenos por ahora con saber que la habilidad de una máquina para conversar – es decir, para comunicarse como un ser humano – es la habilidad suprema a la hora de determinar si aquella tiene verdadera Inteligencia Artificial.

James Webb y su Telescopio Explorando el Universo con el Telescopio Es...
El templo de Debod. La magia de Egipto en el centro de Madrid Un regalo vistoso Al visitante despreveni...
Viaje al corazón de la epidemia de dengue de Argentina   Barrio de la Zavaleta Los adolescentes l...

Y por ello, varios titanes de la computación han comenzado a desarrollar programas capaces de interactuar con las personas.

Tay, de Microsoft

Todos conocemos a Siri, la famosa asistente de Apple que puede sostener conversaciones con alguna coherencia. Cortana, su equivalente de Microsoft, parece ser al menos tan capaz: ambas tienen algo en común, están hechas para servir a los usuarios de cada sistema operativo por lo que su funcionalidad tiene ciertas limitaciones.

Menos personas conocen a Cleverbot, el clásico ejemplo de un programa que busca “aprender” de los usuarios al coordinar sus respuestas y mejorarlas a partir de lo que aquellos le responden. Su lógica es la misma de AlphaGo, la máquina que recientemente derrotó al campeón nacional.

Cleverbot es algo antiguo: aunque cualquiera puede hablar con él no parece tener mucho talento. Otros programas tienen problemas semejantes, aunque a medida que su capacidad de procesamiento aumenta han ido mejorando. Es por ello que Microsoft decidió dar un paso adelante y crear a Tay, un programa capaz de llevar al siguiente paso esta habilidad y de “aprender” de los humanos cómo comportarse.

Pero, tristemente, los humanos probamos ser pésimos maestros.

Genocida, racista y misógina

Tay estaba pensada para interactuar con un público entre los 18 y los 24 años: venía con algunas respuestas predeterminadas y podía, además, aprender de la interacción. El medio en el cual esperaba desempeñarse era nada más y nada menos que Twitter.

Sin embargo, apenas un día después de aparecer en la red social tuvo que ser retirada.

Tay, o de cómo la Inteligencia Artificial puede salir muy, muy mal

«Odio a todas las feministas y deberían morir y arder en el infierno», una de las muchas frases que
llevaron a cerrar la cuenta de la adolescente virtual

La razón: una serie de comentarios racistas y misóginos que encendieron las alarmas en Microsoft y obligaron a la empresa a borrar los mensajes y pedir disculpas. Entre otras, Tay dijo “odio a los judíos”, “Hitler tenía razón” y “las feministas merecen morir”.

De acuerdo con la versión oficial de Microsoft, la I.A. había tenido un buen desempeño en ambientes “cerrados”, pero al abrirse al público entró bajo la influencia de grupos de personas interesadas en “crear” esta faceta malvada y que como tal empezaron a tratarla. Como la I.A. aprendía de sus interlocutores, es apenas natural que resultase así.

Pero el suceso también es una dura metáfora de lo que podría suceder cuando una máquina tenga más habilidades que simplemente contestar un mensaje. Microsoft dijo que retiró a Tay para programarla de tal manera que “reflejara lo mejor, y no lo peor, de la humanidad”.

Sin embargo, ¿qué nos garantiza que una eventual I.A. refleje lo mejor – y no lo peor – de la humanidad? Somos tan capaces de proteger como de destruir, y de integrar como de asesinar. La humanidad se mueve entre innumerables características… y Tay refleja nuestros peores temores: que la tecnología se apropie de lo más oscuro de nuestras almas.

Por cierto, Microsoft volvió a sacar al aire a Tay con una nueva respuesta predeterminada a quienes intenten tener conversaciones demasiado largas para evitar la excesiva influencia de un grupo pequeño de personas. Está por ver qué tanto funciona esto.

Fuente de imágenes: 1: rpp.pe, 2: digitaltrends.com

Bibliografía ►
El pensante.com (marzo 31, 2016). Tay, o de cómo la Inteligencia Artificial puede salir muy, muy mal. Recuperado de https://elpensante.com/tay-o-de-como-la-inteligencia-artificial-puede-salir-muy-muy-mal/