El Pensante

Google desarrolla un experimento que involucra dos IA y un mensaje indescifrable

Ciencia - enero 6, 2017

Imagen 1. Google desarrolla un experimento que involucra dos IA y un mensaje indescifrable

IA

La Inteligencia Artificial será posiblemente uno de los paradigmas más polémicos y peligrosos del siglo XXI. Suponiendo que se mantenga enteramente bajo nuestro control (y esta es una suposición arriesgada, pero digamos que sucede) podría aún así destrozar el mundo laboral, modificar las relaciones económicas mundiales y canalizar de un modo completamente nuevo la sociedad humana. Este nuevo mundo podría ser una distopía o una utopía (o quizás, como gran parte de la sociedad actual, un punto medio), pero en cualquier caso implicaría la destrucción del mundo actual.

Como sabemos, Google ha sido una de las empresas más comprometidas con el desarrollo de nuevas tecnologías capaces de “pensar” por sí mismas. Dentro de sus grandes éxitos recientes se encuentra AlphaGo, la primera máquina capaz de vencer a un campeón humano en Go, único juego en el que la humanidad había resultado imbatible hasta el momento.

Y ahora Google ha decidido entrenar máquinas… para que brinden mensajes indescifrables.

Encriptación

Encriptar un mensaje es un arte, uno que os humanos hemos dominado por algún tiempo. En el siglo XX en particular la encriptación se convirtió en un asunto prioritario para los países que luchaban en las guerras mundiales y posteriormente en la Guerra Fría. Y evidentemente, el desarrollo de las computadoras impulsó muchísimo su desarrollo.

Hoy día incluso instancias privadas como los bancos son capaces de encriptar con gran complejidad asuntos como los datos privados de sus clientes y sus contraseñas (de lo contrario, nadie los contrataría). Sin embargo, estas encriptaciones, aunque realizadas por una máquina, tienen detrás la lógica de un individuo (o un grupo de individuos) que programó la encriptación y diseñó el sistema que debe recibirla y desencriptarla.

Imagen 2. Google desarrolla un experimento que involucra dos IA y un mensaje indescifrable

Google consideró que esto no era suficiente y comenzó a “enseñar” a varios programas artificiales a enviar y recibir mensajes indescifrables. El truco está en que no les dio herramientas de encriptación, es decir, los obligó a desarrollarlas por sí mismos.

Eva, Alice y Bob

Google programó a Eva, Alice y Bob con el objetivo de ver si una máquina era capaz de aprender a encriptar un mensaje sin información de cómo hacerlo. Alice y Bob eran quienes producían y enviaban los mensajes, mientras que Eva estaba encargada de comprenderlos. Usando repetidas iteraciones (es decir, haciendo que los programas corrieran una vez, evaluaran sus resultados, corrieran una segunda vez, evaluaran de nuevo y así sucesivamente) los investigadores descubrieron que Alice y Bob eran capaces de convertir sus mensajes cada vez más en un barullo indescifrable.

El resultado del experimento no se acerca a las herramientas de encriptación que hemos desarrollado los seres humanos. Sin embargo, sí indica que un programa puede “aprender” cosas que estén por fuera de su programación inicial, siempre y cuando se le dé suficiente tiempo y las circunstancias adecuadas. Así como en el caso del Go, podría ser que en unos años las máquinas logren superar la inteligencia humana en este aspecto.

Y si es así, los seres humanos bien podríamos llevar las de perder en una eventual guerra.

Imágenes: 1: popularmechanics.com, 2: wired.co.uk