Los problemas de la Inteligencia Artificial
Mucho es lo que se habla sobre la llamada I. A. Mientras que algunos la consideran el pasaje más rápido a un eventual apocalipsis, otros creen que será la solución a la mayor parte de los problemas de la humanidad.
No vamos aquí a evaluar las posibles implicaciones en el trabajo de millones de personas la creación de una inteligencia capaz de reemplazarlos. El tema que nos interesa es más específico: la creación de armas dirigidas por un sistema de I. A.
De acuerdo con el comunicado realizado por ponentes de la Conferencia Conjunta de Inteligencia Artifical (IJCAI por sus siglas en inglés), que reunió a más de 1.200 expertos en el tema en Buenos Aires, podríamos estar a años, no décadas, de la creación de “armas autónomas que seleccionan y atacan objetivos sin intervención humana”. Dichas armas tendrían que tener serias limitaciones por parte de la comunidad internacional, afirman los científicos, so pena de convertirnos en una sociedad en la que la guerra, de nuevo, se convierte en algo “barato” y fácil de realizar.
Las características de un arma de Inteligencia Artificial
Hay una diferencia, dicen los expertos, entre armas “automatizadas” y armas “inteligentes”. Los drones de combate, por ejemplo, pueden ser casi automáticos pero son dirigidos por un soldado. Es una mente humana quien decide quién vive y quién muere.
Podría incluso imaginarse un arma tal que pudiera seleccionar una víctima dadas unas características específicas y usarse para el asesinato selectivo. Esto, aunque polémico, seguiría dejando la “decisión” en manos de una persona. Pero si se construye un arma capaz de “pensar” y elegir víctimas de una población determinada entonces sí estaríamos frente a un verdadero robot de guerra. Esto es precisamente lo que la carta pretende evitar.
La escalada de la Violencia
El paradigma anterior en términos de destrucción era la bomba nuclear, pero adquirirla involucra una costosísima investigación y obtener uranio enriquecido u otro tipo de material radioactivo que es raro y difícil de tratar y almacenar. La eventual guerra robótica involucrará la apropiación de materias primas que son muy baratas y la posible compra de un código que eventualmente será de fácil acceso. No hay nada que pueda limitarla en el largo plazo.
Cualquier grupo insurgente o terrorista, o un dictador de un país pequeño, podría hacerse con el control de este tipo de armas. Al ritmo que se abarata la tecnología, una vez esté disponible no pasaría mucho antes de que estuviera en el rango de acceso de un gobierno mediano o pequeño o una estructura criminal organizada.
Por esta razón es fundamental comenzar a crear legislación que prohíba la creación de este tipo de armas, que podrían ser usadas para atacar y reprimir a poblaciones enteras de algunas regiones (por ejemplo, los kurdos en gran parte de Oriente medio o los palestinos en Israel) sin distinguir entre víctimas civiles y militares.
Y el principal peligro es precisamente el abaratamiento de la industria bélica. Sin la presión de la pérdida de vidas humanas y con la posibilidad de crear un verdadero ejército a un costo no tan elevado la guerra podría volver a convertirse en la manera más fácil de dirimir conflictos… con dramáticas consecuencias para el bando perdedor.
Ya para concluir, vale la pena pensar en las implicaciones de “enseñar” a una máquina a seleccionar y matar seres humanos. ¿No podría un organismo de Inteligencia Artificial aprender demasiado y, eventualmente, considerar atacar a todos sus creadores? Ese peligro parece no haber sido tenido tan en cuenta.
Fuente de imágenes: 1: i.livescience.com, 2: sciencerecorder.com