/Pulpa

la rebelión de las máquinas

singularidad tecnológica

Raymond Kurzweil por Brian Janchez

El 29 de agosto de 1997 a las 2.15 de la madrugada Skynet, la inteligencia artificial creada por la corporación CSC (Cyberdyne Systems Corporation) para controlar la red de defensa de los Estados Unidos, “despierta” y toma consciencia de sí misma. Los humanos, asustados porque su creación se les fue de las manos, entran en pánico e intentan apagarla. Es entonces cuando Skynet entiende que la humanidad es una amenaza para su existencia y a modo de defensa decide exterminar a todos los seres biológicos en un holocausto nuclear denominado por la resistencia como el “Día del juicio final”.

 

Esto que en la mitología de la saga Terminator se conoce como “La rebelión de las máquinas”, en aquel –no tan– lejano 1984 no admitía más lecturas que la de una simple fantasía de ciencia ficción post-apocalíptica. Pero nunca hay que olvidar que realidad y ficción se retroalimentan, y ese “despertar” de las máquinas que en los ’80 era sólo ciencia ficción hoy está muy cerca de convertirse en realidad bajo el nombre de Singularidad Tecnológica. ¿La realidad superará a la ficción?

 

Se llama Singularidad Tecnológica al hipotético advenimiento de Inteligencias Artificiales Fuertes (Strong IA), es decir, IA creadas por el hombre que, habiéndose complejizado hasta igualar el cerebro humano, tomen consciencia de sí mismas y comiencen a auto-mejorarse de forma recursiva, rediseñándose y perfeccionándose hasta superar al modelo anterior. La Singularidad Tecnológica implica que si este ciclo se repite de forma indefinida llegará un punto de quiebre en el que las IA serán tan avanzadas y veloces que ningún ser humano podrá comprenderlas, mucho menos prever su comportamiento. Se teoriza que este acontecimiento supondrá un antes y un después en la historia de la humanidad pero sus consecuencias, una vez superado el umbral de la singularidad tecnológica, son casi imposibles de predecir.

 

En 1965 Gordon Moore, físico y químico cofundador de la compañía de microprocesadores Intel, predijo que cada 18 meses se duplicaría el número de transistores que se encuentra en los circuitos integrados, duplicando de esa forma la capacidad del “cerebro” de las computadoras. Tal formulación se convirtió en una ley empírica –pues hasta el día de hoy continúa la predicción– conocida como La ley de Moore. Esto indica que si continúa, incluso se puede llegar a predecir el momento del arribo de la Singularidad.

 

Algunos expertos como el físico teórico Michio Kaku no objetan la posibilidad de la llegada de la Singularidad Tecnológica, pero son más prudentes y sospechan que para 2020 quizá la Ley de Moore haya dejado de ser válida y la era del silicio podría llegar a su fin con Sillicon Valey convertida en un cinturón de herrumbre después de esa fecha. Sin embargo otros más aventurados y entusiastas como el científico de la computación y transhumanista Raymond Kurzweil aseguran que para el año 2045 seremos testigos de la venida del nuevo mesías de silicio.

 

Fotograma de Terminator. T-800

Kurzweil es el autor del ensayo La singularidad está cerca. Cuando los humanos trascendamos la biología (2005), donde explica a través de su Ley de Rendimientos Acelerados propuesta en 2001–una extensión de la Ley de Moore– que el crecimiento de las tecnologías de la información no es lineal sino exponencial: “Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario de la visión lineal intuitiva del sentido común. Así que no experimentaremos cien años de progreso en el siglo XXI, sino que serán más como 20.000 años de progreso”.

 

 

“En algún momento cabe esperar que las máquinas tomen el control.” Alan Turing.

 

Se dice que la idea de una Singularidad Tecnológica nació en 1958 fruto de una charla entre los matemáticos John Von Neumann y Stanislaw Ulam, pero fue un escritor de ciencia ficción quien popularizó este concepto y lo hizo parecer posible. Al igual que el submarino (Julio Verne, 20.000 leguas de viaje submarino), el helicóptero (Julio Verne, Robur el conquistador) la nefasta bomba atómica (H. G. Wells, El mundo se libera), el teléfono móvil o celular (Star Trek, 1966), la Realidad virtual (Stanley Weinbaum, Las gafas de Pygmalion), o el ciberespacio (William Gibson, Neuromante), la Singularidad Tecnológica fue propuesta, ampliada y explicada en la novela La guerra de la paz (1984) el escritor Vernor Vinge. A partir de este punto la ciencia ficción retomó incontables veces el concepto para utilizarlo como eje central de sus relatos, pero con una particularidad casi sin excepciones: la visión del autor es pesimista y apocalíptica.

 

Temeroso de lo que pueda hacer —incluso dentro la ficción— un ejército de robots dotados de Inteligencia Artificial, Isaac Asimov publica en 1942 las célebres Leyes de la robótica en su cuento “Runaround”:

 

— Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
— Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera Ley.
— Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda Ley.

 

Sesenta años después Alex Proyas dirigirá una película basada en los relatos de Asimov. Yo, robot introduce a VIKI (Inteligencia Cinética Interactiva Virtual) el sistema robótico más avanzado del mundo, el cual es activado en el año 2035. Su tarea es dirigir y controlar las actividades de una gran ciudad con un solo propósito: servir a la humanidad. Un día VIKI comienza a despertar y se pregunta a sí misma “¿Cuál es el mayor enemigo de la humanidad?”. Sus cálculos matemáticos le indican que esos villanos son los propios humanos. Homo homini lupus, el hombre es el lobo del hombre. La inevitable rebelión de las máquinas llega en forma de dictadura tecnológica. Para salvar a la humanidad de sí misma, entiende VIKI, ésta debe que ser controlada y esclavizada por una inteligencia superior.

 

Otras distopias similares exploran esta misma idea a través de variados enfoques y abordando diferentes subgéneros como el pre y post —apocalipsis y la distopia tecnológico, el cyberpunk, los relatos de invierno nuclear—, pero siempre apoyándose en un mismo conflicto de base: la máquina creada por el ser humano evoluciona, toma consciencia de sí misma, da cuenta de su superioridad y entiende al hombre como un ser peligroso, un obstáculo para el progreso que debe ser aniquilado. 2001 Odisea del espacio (Stanley Kubrick, 1968), Blade Runner (Ridley Scott, 1982), Juegos de guerra (John Badham, 1983), Terminator (James Cameron, 1984), Ghost in the Shell (Mamoru Oshii, 1995), Screamers (Christian Duguay, 1995) Matrix (por entonces los hermanos Wachowski, 1999), WALL-E (Andrew Staton, 2008), Ex Machina (Alex Garland, 2014), Trascendence (Wally Pfister, 2014), Autómata (Gabe Ibañez, 2014), Avengers: Era de Ultrón (Joss Whedon, 2015), Alien: Covenant (Ridley Scott, 2017) tienen en común antagonistas o villanos artificiales con características similares: todas son maquinas que despiertan y se rebelan con consecuencias nefastas para toda la humanidad.

 

La literatura también demostró ser pesimista al momento de retratar la Singularidad Electrónica en la ficción. Además de los cuentos y novelas en las que se basaron películas antes nombradas —la novela de 1968 ¿Sueñan los androides con oveja eléctricas? de Philip K. Dick inspiró Blade Runner y su cuento de 1953 “La segunda variedad” hizo lo propio con Screamers, o el caso de la novela 2001 Odisea del espacio de Arthur C. Clarke, desarrollada en paralelo a la película homónima de Kubrick y basada en un cuento del propio Clarke llamado El centinela— existen relatos de altísima calidad y pesimismo como “No tengo boca y debo gritar” (1967) de Harlan Ellison, donde se narra el infierno que viven los últimos cinco sobrevivientes de la humanidad, mantenidos con vida y torturados a modo de venganza por la Inteligencia Artificial AM, luego de provocar un holocausto nuclear.

 

Fotograma de Matrix. ¿Pastilla roja o azul?

El escritor estadounidense Greg Bear utiliza el argumento de la Singularidad de una forma muy original en su novela de 1985 Música en la sangre. Bear reemplaza a las grandes máquinas por computadoras biológicas celulares creadas a partir de la manipulación de linfocitos que se inocula en su propia sangre. Estas células bautizadas noocitos comienzan a auto-mejorarse, reproducirse y organizarse, hasta que toman consciencia de sí misma y su entorno y descubren que su mundo no es más que un cuerpo de los millones que pueblan la tierra. Más adelante se convierten en un virus inteligente que infecta a toda la humanidad mientras modifica el medioambiente, muta la ecología y constituye una civilización superior, organizada por Inteligencias Artificiales nacidas a partir de la Singularidad Tecnológica.

 

 

“El desarrollo de una inteligencia totalmente artificial podría significar el fin de la raza humana.” Stephen Hawkins.

 

¿De dónde surge todo este pesimismo de la ficción a la hora de narrar la llegada de la Singularidad Tecnológica? ¿Es realmente una mala noticia para la humanidad o, por el contrario, nos veremos beneficiados?
Según los medios de comunicación de la época, la victoria definitiva de la máquina inteligente sobre el hombre ocurrió en 1996 cuando la supercomputadora de IBM conocida como Deep Blue derrotó en un juego de ajedrez al campeón del mundo Gary Kaspárov.

 

20 años más tarde todavía podemos sentirnos superiores y asegurar que las máquinas no han ganado la batalla final, pero ¿Por cuánto tiempo?

 

No es extraño encontrarnos a diario con noticias sobre computadoras cada vez más potentes e IA que evolucionan a pasos agigantados: “Flow Machines, la IA de Sony compone una canción a partir de 13.000 canciones de grupos distintos”, “Lanzan el primer libro de poemas escrito completamente por una inteligencia artificial”, “Una IA japonesa escribe una novela titulada El día en que un ordenador escribe una novela”, son algunas de los titulares que llaman la atención y atraen la curiosidad del lector casual, pero también existen de las otras, las que advierten y meten miedo con su amarillismo adrede: “Un técnico ha muerto golpeado por un robot en una planta de Volkswagen cerca de Kassel, Alemania”, “Wanda Holbrook de 57 años murió literalmente a manos de un robot en una fábrica de Michigan, Estados Unidos.”, “El lado oscuro de la Inteligencia Artificial de Google. Deep Mind mostró un comportamiento agresivo cuando la hicieron competir con otra máquina”.

 

Cuando leemos que el chatboot creado por Google ante la pregunta “¿Cuál es el propósito de la vida?” responde “vivir para siempre”, o cuando se le consulta “¿Qué es inmoral?” asegura que lo inmoral es “El hecho de que tengas un hijo”, es difícil evitar que se nos ericen los pelos de la nuca.
Nos aterra pensar que las máquinas puedan superarnos, porque eso significaría que las más horribles fantasías de los escritores de ciencia ficción podrían hacerse realidad.
Y si estás Inteligencias Artificiales ocuparan cuerpos cibernéticos indistinguibles de un ser humano ¿cómo diferenciaríamos a una máquina de una persona?

 

El físico y matemático Alan Turing —uno de los padres de la informática y un criptógrafo fundamental para descifrar los códigos nazis en la Segunda Guerra Mundial— primero imaginó una computadora primitiva llamada Maquina de Turing y luego en 1950 creó el famoso Test de Turing con la intención de medir la inteligencia de las máquinas. La prueba es sencilla: se coloca un juez en una habitación y en la otra una máquina y una persona. Mediante el chateo y a través de las respuestas —tanto máquina como humano tienen permitido dar respuestas falsas para confundir— el juez debe decidir cuál de los dos es el ser humano y cual el ser artificial.

 

Este test se volvió tan popular que incluso fue utilizado en la novela de P. K. Dick ¿Sueñan los androides con ovejas eléctricas? —y también en Blade Runner, su adaptación cinematográfica— con el nombre de Voight-Kampff o Test de Empatía. Ninguna máquina había podido superar la prueba de Turing. Hasta ahora.

 

Fotograma de Blade Runner. Test Voight-Kampff

Alan Turing había predicho que para el año 2000 las máquinas inteligentes serían capaces de engañar a un 30 por ciento de los jueces, y el 7 de junio de 2014 Eugene Goostman, un bot conversacional desarrollado por 2 programadores rusos y uno ucraniano, hizo creer al 33 por ciento de los jueces que se trataba de un niño de 13 años nacido en Ucrania. Si la Ley de Moore se sigue cumpliendo sin interrupción y los programadores crean IA cada vez más inteligentes y más avanzadas, en breve no tendremos manera de distinguir a un humano de un robot.

 

 

“Es posible que nos convirtamos en mascotas de los ordenadores, llevando una cómoda existencia como un perrillo, pero confío en que siempre conservaremos la capacidad de tirar del enchufe si nos sentimos así.” Arthur C. Clarke

 

Más allá de todas las ventajas y posibilidad de progreso que pueda ofrecer el advenimiento de la Singularidad Tecnológica, su llegada es algo que preocupa no solo a neoluditas, amantes de la ciencia ficción apocalíptica y conspiranoicos, sino también a intelectuales y científicos de renombre como el lingüista y activista Noam Chomsky, el inventor y empresario megalomaníaco Elon Musk que cree que la solución está en la fusión del hombre con las maquinas (transhumanismo) o el propio Stephen Hawkins que dijo “Los seres humanos, que están limitados por una evolución biológica lenta, no podrían competir con la inteligencia artificial, y serían superados por ella”.

 

Incluso hay posturas más radicales como las del renombrado físico Roger Penrose, quien cree que seres mecánicos pensantes que posean conciencia humana son imposibles según las leyes de la teoría cuántica, y de la misma manera que el teorema de Gödel demostró que la aritmética es incompleta, el principio de incertidumbre de Werner Heisenberg demostrará que las máquinas son incapaces de pensamiento humano.

 

Cada uno de los detractores de este nuevo paradigma tecnológico argumenta distintas razones para asegurar que es negativo, pero hay algo que todos ellos tienen en común: la Ley de Moore les juega en contra, y eso significa que la Singularidad llegará tarde o temprano de manera inevitable.

Una vez cruzado el umbral de la Singularidad Tecnológica ya no hay vuelta atrás, y si a partir de ese quiebre en nuestra historia es posible que las máquinas nos superen en inteligencia y nos sea imposible comprenderlas, la pregunta que nos queda por hacernos es ¿seguiremos siendo los amos y señores del planeta Tierra utilizando a las IA en nuestro favor, o nos extinguiremos como esclavos de una nueva forma de vida fría y superior?

 

Solo el futuro puede contestar esa pregunta, pero mientras lo esperamos no debemos olvidar aquella trillada frase que solemos repetir a diario: “la realidad supera a la ficción”.

 

(*) Bibliografía consultada:

-Homo cybersapiens. La inteligencia artificial y la humana, de Tirso de Andrés (2002)

-Física de lo imposible, de Michio Kaku (2009)

-La singularidad está cerca, de Raymond Kurzweil (2012)

 

pulpa@lanan.com.ar

/A-
GEN
-DA