Las IA no se trata del dominio de la humanidad sobre la naturaleza, sino de renunciar a su control. Más de 1.000 expertos pidieron una moratoria de seis meses en para poder pensar cómo regularla.
DIARIO DEL HUILA, TECNOLOGIA
A los firmantes de la carta abierta del Future of Life Institute les preocupa que los laboratorios de Inteligencia Artificial IA estén “atrapados en una carrera fuera de control” para desarrollar e implementar sistemas cada vez más poderosos que nadie, incluidos sus creadores, pueda entender, predecir o controlar.
¿Qué explica este estallido de pánico entre una cierta cohorte de élites?
El control y la regulación están obviamente en el centro de la historia, pero ¿de quién? Durante la pausa propuesta de medio año, cuando la humanidad pueda hacer un balance de los riesgos, ¿quién defenderá a la humanidad? Dado que los laboratorios de IA en China, India y Rusia continuarán su trabajo (quizás en secreto), un debate público global sobre el tema es inconcebible.
El pánico reflejado en la carta proviene del temor de que incluso aquellos que están en el “tren del progreso” no puedan dirigirlo. Nuestros actuales amos feudales digitales están asustados. Lo que quieren, sin embargo, no es un debate público, sino más bien un acuerdo entre los gobiernos y las corporaciones tecnológicas para mantener el poder donde pertenece.
Le puede interesar: ¿La Inteligencia Artificial afecta la oferta laboral?
Una expansión masiva de las capacidades de IA es una seria amenaza para quienes están en el poder, incluidos aquellos que desarrollan, poseen y controlan la IA. Apunta nada menos que al fin del capitalismo tal como lo conocemos, manifestado en la perspectiva de un sistema de IA autorreproducible que necesitará cada vez menos aportes de agentes humanos (el comercio algorítmico del mercado es simplemente el primer paso en esta dirección). La elección que nos queda será entre una nueva forma de comunismo y un caos incontrolable.
Los nuevos chatbots ofrecerán a muchas personas solitarias (o no tan solitarias) noches interminables de diálogo amistoso sobre películas, libros, cocina o política. Para reutilizar una vieja metáfora mía, lo que la gente obtendrá es la versión IA del café descafeinado o una gaseosa sin azúcar, un “otro” que simplemente se acomodará a sus propias necesidades. Hay una estructura de desautorización fetichista aquí: “Sé muy bien que no estoy hablando con una persona real, pero se siente como si lo estuviera, ¡y sin ninguno de los riesgos que lo acompañan!”.
¿Prohibir lo imposible?
En cualquier caso, un examen minucioso de la carta muestra que es otro intento de prohibir lo imposible. Esta es una vieja paradoja: es imposible para nosotros, como humanos, participar en un futuro posthumano, por lo que debemos prohibir su desarrollo. En lugar de quejarnos de la amenaza a nuestra libertad y dignidad en el futuro, tal vez deberíamos considerar primero lo que significa la libertad ahora. Hasta que hagamos esto, actuaremos como histéricos que, según el psicoanalista francés Jacques Lacan, están desesperados por un maestro, pero solo uno que podamos dominar.
El futurista Ray Kurzweil predice que, debido a la naturaleza exponencial del progreso tecnológico, pronto estaremos tratando con máquinas “espirituales” que no solo mostrarán todos los signos de autoconciencia, sino que también superarán con creces la inteligencia humana. Pero no se debe confundir esta postura “posthumana” con la preocupación paradigmáticamente moderna por lograr la dominación tecnológica total sobre la naturaleza. Lo que estamos presenciando, en cambio, es una inversión dialéctica de este proceso.