Nunca he sido muy creyente de que la realidad supere a la fantasía; todo lo contrario: la realidad me parece fastidiosa, plana y seca. En el mundo suceden cosas tremendas, pero ninguna sorpresiva, ninguna que supere a muchas que ha concebido la ficción. Por ejemplo, aunque soy aficionado a la ciencia ficción y escribo ciencia ficción, discrepo de los escenarios futuristas donde las máquinas se rebelan contra los humanos. Simplemente no creo que eso suceda, porque los grandes intereses políticos y económicos no van a permitirlo.
Parafraseando a Alfred en The Dark Knight, estos intereses quieren cosas lógicas, como el dinero. Necesitan que el mundo siga existiendo para disfrutar de él. Necesitan economía que produzca la riqueza de la que gozan. Necesitan comodidades, lujos y placeres que un mundo caótico no ofrecería. Aunque su estupidez y codicia cada cierto tiempo degeneran en crisis económicas y alguna guerra, lo cierto es que ellos necesitan que el mundo (o al menos una parte de él) siga siendo funcional para sus propósitos. En cuanto estos intereses se vean amenazados por la IA, reaccionarán. Veamos un par de escenarios al respecto, pero no sin antes recordar las leyes de la robótica postuladas por Isaac Asimov:
- Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Aunque los conflictos y paradojas que podrían suscitar estas leyes son objeto de un debate inacabado (basta con leer las numerosas especulaciones que el propio Asimov escribió al respecto), ciñámonos a la primera ley y notemos en particular el verbo utilizado: “dañar”. Es decir, un robot no solo debería proteger la vida y la integridad física del humano en las situaciones de carácter más inmediato, sino que debería proteger también los derechos del ser humano y resguardarlo de cualquier situación que lo dañe.
Digamos que, en un momento de lucidez, la humanidad se ponga de acuerdo y la fabricación de robots sea regida por una ley semejante. Creo que serían robots muy confiables y “buenos”, pero al mismo tiempo tozudos y muy poco colaborativos en ciertas situaciones, ya que se negarían a cumplir órdenes que, según su lógica, impliquen algún daño al ser humano. Y no solo se negarían a incumplir dichas órdenes, sino que harían lo posible para impedir que otros lo hagan. Estos robots no podrían ser utilizados en el ámbito militar; a lo sumo, podrían tener funciones de policía, rescate y muy muy estricta defensa. Si la IA va a estar en la mayoría de los ámbitos de acción del ser humano, tendría a su alcance la posibilidad de entorpecer o de plano obstruir todas aquellas acciones que considerase dañinas para nuestra especie. Coordinados entre sí, los robots podrían determinar que el ser humano es inepto para regir el mundo y que debe ser relevado del cargo (en lo cual tendrían toda la razón). A diferencia de Terminator, esta rebelión de la IA tendría como fin salvar al ser humano de sí mismo y no destruirlo.
He de decir que, en principio, no suena tan mal estar gobernados por la IA: no habría guerras, la riqueza y los recursos estarían repartidos con rigurosidad matemática, la economía podría planificarse mejor que nunca y, aunque su perfección quizá no esté al alcance ni de la propia IA, al menos se libraría de las ocurrencias de los gobiernos humanos. No habría decisiones arbitrarias ni portillos en las leyes ni sobornos o favores. No habría presidentes populistas o conspiranoicos; al fin todo se regiría por la ciencia, la matemática y los hechos. No habría hipocresía; nada de que soy cristiano, pero invado al país vecino; nada de que apoyo los derechos humanos, pero también apoyo a tal dictador.
Sin embargo, esta utopía no tendría nada de utópico para los grandes intereses económicos y políticos, porque estos necesitan ganar siempre más que otros, necesitan favores, mentiras y privilegios. En los peores casos, necesitan que muera gente, necesitan que haya guerras controladas, ponen en una balanza las ganancias económicas por encima de las pérdidas humanas, admiten y propician que haya dictadura, crimen y pobreza en ciertos lugares, y, en fin, multitud de cosas que los robots no permitirían. Pero, más allá de los grandes intereses, creo que en realidad muy pocos tolerarían el gobierno de los robots, porque estos serían comunistas en niveles y formas que ni el más comunista podría aguantar. El innegociable y monolítico orden establecido por los robots traería una pérdida de libertades que, sin ser necesarias para la supervivencia, muchos extrañaríamos. Desde luego, esto conduce a otro largo debate digno de Asimov: ¿limitar los placeres y privilegios del ser humano es una forma de dañarlo?
Pero, mucho antes de llegar a este punto, los humanos preferirán limitar considerablemente los campos de acción de la IA y aplicar en forma muy selectiva (o no aplicar) una ley semejante a la primera de Asimov. Esto me lleva al segundo caso:
Una IA que se limite a obedecer y sea capaz de dañar al ser humano cuando sus amos se lo ordenen estaría más acorde con las necesidades de los grandes intereses, aunque también estaría más acorde con lo que nos muestra Terminator; sería tan peligrosa como darle el botón de una bomba atómica a un niño enojado. Para evitar una rebelión apocalíptica de las máquinas, la humanidad tendría que mantener una inteligencia artificial sumamente restringida, en pleno servicio a sus intereses e imposibilitada estructuralmente para rebelarse. Hablamos de límites no solo electrónicos e informáticos, sino también físicos, para evitar que una IA se exceda en sus funciones.
En un principio, los orgullosos papás de las IA van a resistirse a poner odiosos límites a las capacidades de sus criaturas. Como buenos papás de esta época, van a querer que sus hijos estén metidos en todo y sepan de todo, que sean niños ejemplares, aventajados, prometedores, el futuro de la humanidad y orgullosos portadores de su legado paterno. Como buenos papás de esta época, van a rechazar cualquier indicio de que sus bendiciones tengan problemas y van a achacar a la estupidez del resto de la gente cualquier problema que haya con sus hijos. Pero pronto los choques de intereses e incluso la propia constatación de las malacrianzas de la “bendi” obligarán a los papás a disciplinarla (véanse como ejemplos la huelga de actores y escritores de Hollywood o las primeras demandas contra la IA por violación de derechos de autor).
Ahora bien, los grandes intereses económicos y políticos no son un solo grupo cohesionado que se ponga de acuerdo fácilmente. Las leyes para limitar a la IA crearán nuevas áreas de conflicto: los robots van a representar el mismo dilema que hoy suponen las armas nucleares. El equilibrio entre potencias será determinado por los límites que impongan a sus IA; grupos de países firmarán tratados para limitarlas, pero otros no. ¿Tendrá lugar la rebelión de las máquinas en los países disidentes? ¿O será la IA el objeto de un nuevo principio MAD?
Esto apunta a que el primer escenario propuesto (la IA programada con una ley similar a la primera de Asimov) es prácticamente imposible.
Sin embargo, falta camino para llegar a estas situaciones (creo que nunca llegaremos) y por ahora tenemos un debate mucho más inmediato: los límites que se imponga a los usuarios de la IA. Porque, no nos engañemos: la IA actual es una mera herramienta que, sí, va a eliminar empleos, va a transformar al mundo y va a abrir una amplia y novedosa variedad de aplicaciones (muchas de ellas criminales), pero no tiene la capacidad de rebelarse. Sin usuarios que le digan qué hacer, es tan inofensiva como un electrodoméstico apagado. No es a ella a la que debemos poner coto, sino a esos niños grandes y malcriados que juegan con robots, dinero y bombas atómicas.
Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio.