Recientemente se ha generado mucho debate sobre hasta qué punto la inteligencia artificial (IA) puede suponer la amenaza de extinción de la humanidad.
Es famosa la sentencia de Keynes «en el largo plazo, todos estamos muertos». Muchas veces, los seres humanos nos despreocupamos sobre eventos de tintes catastróficos debido precisamente a su naturaleza largoplacista. Así, aunque los científicos nos han venido avisando desde los años setenta y ochenta del riesgo asociado al cambio climático, hemos tardado décadas en tomar en serio dicha amenaza.
Recientemente se ha generado mucho debate sobre hasta qué punto la inteligencia artificial (IA) puede suponer la amenaza de extinción de la humanidad. En una carta firmada en 2023, importantes líderes de opinión tecnológica pidieron una «moratoria» en las investigaciones sobre la IA precisamente para calibrar bien este riesgo.
¿De qué estamos hablando?
Primero, conviene distinguir entre inteligencia artificial «estrecha» y «general». Hasta ahora se había avanzado con la primera, que puede realizar tareas más o menos sencillas tales como generar texto, imágenes o análisis de datos. Por IA general (IAG) se entiende el desarrollo de capacidades por parte de una «máquina» (definida como cualquier aparato conectado a internet) para que pueda realizar una gran parte de tareas intelectuales igual o mejor que un ser humano, y que además desarrolle sentido común y «consciencia». Por ejemplo, un coche autónomo es capaz de parar al ver un semáforo en rojo. Sin embargo, si un extremo de un cable de acero se desprende entre dos postes, un conductor humano aplicará su sentido común para frenar, un coche autónomo no, porque carece de sentido común.
Segundo, se considera que la IAG puede representar una amenaza para la humanidad en varias vertientes. Por un lado, una máquina con «sentido común» puede realizar acciones amenazantes. Por ejemplo, si la instrucción ordenada a la máquina es «cómo puedo limpiar los océanos», esta puede deducir que el principal agente contaminador son los humanos, a partir de ahí generar un patógeno más mortífero que el que propagó la peste negra, y difundirlo; en la película 2001: Una Odisea en el Espacio (1968), el ordenador HAL intenta matar a la tripulación cuando observa que esta se vuelve un obstáculo para sus objetivos. Por otro lado, un actor maligno como un grupo terrorista o una secta milenarista puede precisamente orientar la IAG a la consecución de escenarios que podrían ser devastadores (de nuevo, insistimos en el bioterrorismo, originado por humanos, pero ejecutable por inteligencias suprahumanas). También se ha señalado cómo los comportamientos no explicables de los modelos (las llamadas «alucinaciones») pueden desembocar en «comportamientos rebeldes» que, a medio plazo, puedan suponer una amenaza para nuestra existencia, por ejemplo, desestabilizar una central atómica. Para evitar estas conductas anómalas es preciso antes conseguir el llamado «alineamiento» de la IA con los humanos, y hasta ahora, no se ha conseguido plenamente. Por último, la IAG puede desarrollar importantes niveles de desinformación que provoquen grandes disrupciones en nuestros sistemas políticos.
Tercero, hasta hace poco, los expertos consideraban que aún faltaba mucho tiempo para que la llegada de la IAG se materializara; en general, se hablaba de décadas. Sin embargo, el rapidísimo desarrollo de la inteligencia artificial generativa, la que nutre el funcionamiento de Chat GPT y modelos similares, podría, según los expertos, acelerar la llegada de la IAG, de ahí la carta a la que hemos aludido más arriba. Este hecho es el que ha llevado al presidente de los EEUU a firmar una orden ejecutiva para exigir que, si un modelo regido por IA generativa supone una advertencia de riesgo sistémico, se deberá comunicar inmediatamente al Gobierno. La reciente regulación europea sobre IA va en la misma línea.
Cuarto, la IA, aparte de ser amenazante, proporciona enormes posibilidades en forma de mayor productividad y, por tanto, mejores salarios, y otras facetas como el desarrollo de fármacos. Así, los expertos se dividen en dos campos. Los boomers enfatizan esta faceta positiva. Los doomers (del término inglés doom o «condenación») enfatizan el riesgo sistémico de extinción de la humanidad. El problema es que, si se analizan los estudios publicados por el mundo académico, el 90% corresponde a boomers, y tan solo el 10% a doomers. De ahí se deduce que nos falta cierto equilibrio en publicaciones para poder estudiar y hacer frente a los escenarios más negativos que se pueden abrir en el medio plazo.
Quinto, como se trata de cuantificar, cuando se plantea a los tecnólogos y académicos expertos en IA qué porcentaje de posibilidades asignan a la desaparición de la humanidad debido a la aceleración de la IA —porcentaje denominado p(doom) —, la respuesta estriba en torno a un 6%. Si preguntamos a los «superpronosticadores» su respuesta es inferior a un 0,5%; se conoce como «superpronosticadores» a ciudadanos no expertos con una capacidad sistemática de predecir el futuro tras un estudio importante de los hechos (este grupo, señalado por Philip Tetlock, fue capaz de batir a la propia CIA en pronósticos geopolíticos, y eso sin utilizar información clasificada) . El rango del 0,5% al 6% parece bajo, pero dado el potencial resultado (nuestra desaparición) es suficientemente relevante para multiplicar los esfuerzos que desde el punto de vista académico, empresarial y gubernamental se puedan llevar a cabo para acotarlo. Por ejemplo, los boomers argumentan que una máquina que «alucine» con comportamientos que puedan ser agresivos será detectada en una fase temprana, y potencialmente, reeducada o eliminada. En cualquier caso, aparte de avanzar en el «alineamiento» es importante desarrollar sistemas de IA que puedan protegernos de los escenarios más peligrosos.
El Center for AI Safety declaró hace poco: «Mitigar los riesgos de extinción por la IA debería ser una prioridad global, junto con otros riesgos globales de gran escala, como las pandemias y la guerra nuclear». El asunto que concierne a esta columna es tan relevante que debería movilizar al conjunto de la sociedad para que, estudiándolo lo suficiente, podamos prevenir un posible fatal desenlace.