Hacia un Dios digital, o el auge de las IAs como cisma religioso
Internas y posturas filosóficas alrededor del futuro de la humanidad
Adventistas de la Singularidad
Hace apenas un mes se desató un infierno dentro de OpenAI, probablemente el laboratorio de investigación especializado en inteligencia artificial más renombrado del planeta. Parece ser que varios empleados escribieron una carta dirigida a la junta directiva donde expresaban su preocupación ante uno de los últimos descubrimientos de la empresa: un desarrollo tecnológico que podría resultar una amenaza para la humanidad como la conocemos.
Fue entonces que la junta directiva tomó la decisión de destituir al CEO Sam Altman, socio fundador y uno de los máximos gurús de las inteligencias artificiales generativas a nivel global. Ante su sorpresivo despido y luego de algún que otro coqueteo con la competencia, más de 700 empleados amenazaron con abandonar la empresa para unirse a Microsoft. Un gesto de solidaridad y lealtad para con su expulsado líder.
¿De qué se lo acusaba a Altman? Principalmente, de impulsar la comercialización de ciertos avances tecnológicos de vanguardia sin siquiera comprender sus posibles consecuencias. Al parecer, esta preocupación surgió a partir de un misterioso proyecto en específico conocido como Q* (pronunciado “kiú estar”), alrededor del cual todo es especulación devenida mito fugaz para el nicho.
Dentro de todo este intríngulis lo central es lo siguiente: algunas personas de OpenAI creen que este proyecto puede ser un gran avance en la búsqueda de lo que se conoce como inteligencia artificial general (o AGI, en su sigla en inglés), o sea, uno de los principales objetivos explícitos de la empresa desde su fundación.
A todo esto, ¿qué es una AGI? Se trata de un tipo hipotético de inteligencia artificial que tiene la capacidad de aprender a realizar cualquier tarea intelectual que puede ser ejecutada por un ser humano o animal. Hay quienes también incorporan la siguiente definición: un sistema autónomo que supera las capacidades humanas en casi cualquier actividad económicamente rentable.
Ahora bien, este concepto acarrea sus propios cuestionamientos éticos y filosóficos. Si la cosa no se había puesto lo suficientemente distópica es porque todavía no hablamos de esa hipótesis conocida como el “riesgo existencial de la inteligencia artificial”. Los cultores del “riesgo existencial” aseguran que el hecho de que la humanidad se haya alzado como especie dominante está estrictamente relacionada con las capacidades de su cerebro, de las que otros animales carecen. Siguiendo este razonamiento, si una IA lograse alcanzar la superinteligencia se volvería imposible de controlar para los seres humanos.
Como no podía ser de otra manera, este abismo técnico devino grieta. De un lado tenemos a los apocalípticos (“AI doomers”) y del otro a los aceleracionistas (“AI e/accs”), en otras palabras, los precavidos que ven venir un futuro atroz si no se ponen los respectivos frenos y los que ven una curva y eligen a conciencia pisar el acelerador a fondo.
Alrededor de esta grieta sostuvieron un profundo debate Yuval Noah Harari, historiador y escritor israelí, y Yann LeCun, investigador y jefe de inteligencia artificial de Meta. Por un lado, LeCun sostuvo la creencia en un futuro en el que la IA amplificará la inteligencia humana, llevando a un nuevo Renacimiento y a avances científicos, técnicos y sociales. Por el otro, Harari advirtió sobre el peligro de que las IAs puedan destruir los cimientos de la democracia y dar lugar a nuevas dictaduras digitales. Tranqui la cosa.
Por supuesto, LeCun aseguró que la regulación de esta tecnología resulta un factor fundamental para garantizar que el desarrollo de las IAs tenga un efecto positivo en el devenir de la humanidad. En la vereda opuesta, Harari considera que estos recaudos nunca van a ser suficientes y que es posible que lleguemos al punto de que una IA pueda cambiar la opinión de las personas sobre cualquier cuestión, transformándose así en un peligro cuando se trate de figuras en posiciones de poder.
Uno de los ejes centrales de la discusión fue el que más preocupa a las personas de a pie como uno: el impacto en el futuro del empleo. Víctima de un optimismo tal vez demasiado exagerado, LeCun parece confiado en que las IAs crearán nuevas profesiones a la vez que aumenten la productividad general, aunque reconoce que habrá trastornos en la transición. Ese período intermedio es lo que más preocupa al amigo Harari, que destaca la importancia de generar planes de contención y formación para que la población pueda aprender y adaptarse a medida que el paradigma del mercado laboral se transforma.
Siguiendo esta línea, hasta el FMI demostró preocupación, y desde este rincón del sur global sabemos que si esos mercenarios están preocupados es porque tienen miedo de que algo afecte negativamente su modelo de negocios, o sea, que la crisis por venir sea de tal magnitud que resulte imposible cobrar sus benditas deudas. En un artículo que puede encontrarse en la propia página del Fondo, el economista y profesor Anton Korinek plantea que la mayoría del trabajo humano podría ser potencialmente reemplazado por el desarrollo de las AGI en un plazo de entre 5 y 20 años. Una crisis de empleo en potencia y a escala global que ya se empieza a vislumbrar.
Ante este poco alentador panorama, Korinek sugiere adoptar un enfoque analítico y sumamente cauteloso, con el objetivo de prepararse para múltiples escenarios y desenlaces posibles. Destaca la importancia de monitorear indicadores como pruebas de rendimiento de tecnologías basadas en IA, analizar niveles de inversión y adopción de estos desarrollos y estar atento a tendencias macroeconómicas y del mercado laboral. Por supuesto, también enfatiza la necesidad de generar marcos de políticas adaptativos que puedan ajustarse a medida que evoluciona la IA, con el fin de generar reformas que garanticen la resiliencia de las instituciones existentes y de la humanidad como la conocemos, de paso.
“Para cuando llegue el momento, se va encargar de resolverlo un Dios digital”, afirmó Elon Musk al responder sobre demandas de competidores con respecto al presunto uso de datos sujetos a derechos de autor para alimentar el desarrollo de inteligencias artificiales en OpenAI, y afirmó que la compañía que diga que no utiliza datos con copyright “está mintiendo”.
Atravesado por las mismas percepciones místicas, el académico Henry Farrell aseguró que los desarrolladores de IAs están siendo parte de su propio cisma religioso, donde un sector rinde culto al progreso indiscriminado mientras otro se encuentra paralizado por el horror ante fuerzas que percibe divinas. “Ambos cultos son subproductos accidentales de la ciencia ficción”, remató.
De un lado se encuentra la corriente Vernon Vinge, matemático y escritor que en 1993 publicó un ensayo con el tranquilizador título La próxima singularidad tecnológica: cómo sobrevivir en la era posthumana. Allí discute la idea de que el progreso tecnológico, particularmente en el campo de la inteligencia artificial, eventualmente alcanzará un punto en el cual el futuro se volverá incomprensible para los seres humanos, ya que las máquinas superarán la inteligencia humana. Ese punto de no retorno que desde entonces se conoce como la Singularidad.
En sus antípodas, o por lo menos con bastante más optimismo, se paró el científico y escritor Ray Kurzweil al publicar su libro La Singularidad está cerca: cuando los humanos transcendamos la biología (2005). Según sus predicciones, alrededor del año 2045 la inteligencia artificial habrá alcanzado un nivel en el cual será capaz de mejorar y rediseñarse a sí misma a una velocidad tan rápida que se vuelva imposible de comprender para los humanos. Sí, un poco lo mismo que decía Vernon Vinge, pero con una diferencia sustancial: Kurzweil aboga por la fusión hombre-máquina, donde las interfaces cerebro-computadora permitirían una integración más estrecha entre la mente humana y las capacidades de la inteligencia artificial. En otras palabras, transhumanismo para la inmortalidad.
Dicho todo esto y volviendo un poco al disparador de toda esta cuestión, ¿cuáles serían los factores que vuelven a Q* un riesgo en potencia? Según se presume por ahí, los grandes avances de este modelo consistirían en tres factores fundamentales: la capacidad de resolver efectivamente problemas lógicos y matemáticos (uno de los grandes vacíos de las IAs actuales), un sistema de automejoramiento a través de feedback no-humano (como el utilizado para el programa Alpha-Go) y la creación de datos sintéticos (o sea, datos generados por IAs) sin la necesidad de contar con una extensa base de datos propia. A grandes rasgos, un gran paso a ciegas hacia el abismo de las AGI desreguladas, como nuestra economía.
Tras el escándalo y los coqueteos con la competencia, Sam Altman fue reincorporado a OpenAI junto con una flamante y renovada junta directiva. Se ve que a nadie le convenía demasiado que empezara a filtrar datos alrededor de tamaño desarrollo. Un giro dramático en una lucha de poder que tomó por asalto a la industria tecnológica. Será cuestión de tiempo ver de qué lado de la grieta se encuentra este buen hombre, a pesar de haber expresado una y otra vez que su misión siempre fue el desarrollo de IAs de “forma segura” y “minimizando el riesgo”.
Para cerrar, paso a recomendar algunas ficciones recientes que abordan las distintas implicancias de este tipo de tecnología y que dan cuenta de su reconfiguración en el imaginario social. Tal vez el mejor ejemplo sea The Artifice Girl (Franklin Ritch, 2022), una película que retoma la cuestión de los límites de lo humano —cristalizada por el querido Philip Dick en su ¿Los androides sueñan con ovejas eléctricas? (1968)— con un enfoque cercano y por momentos sumamente perturbador. Si estás para un intenso doble programa, esta película marida muy bien con Mantícora (Carlos Vermut, 2022), a la que es mejor entrar sabiendo lo menos posible. Si te interesa algo más pochoclero y grandilocuente también tenemos The Creator (Gareth Edwards, 2023), cuyo argumento sigue a un agente que debe asesinar al creador de una inteligencia artificial que tiene la capacidad de aniquilar a toda la humanidad. En esta medio que no se entiende del todo cómo funciona el tema de la IA y se termina pareciendo más a aquella recordada adaptación de Yo, robot (2004) que a otra cosa, digamos todo.
En una nota personal, tal vez mi historia favorita con una IA como protagonista —años antes de que se acuñara el término— sea “EPICAC” (1950), un adorable cuento de Kurt Vonnegut donde un sistema opertativo que aprende y comprende se termina enamorando de una científica a la que era obligado a escribirle poemas de amor. Y dentro de los abordajes de los últimos años tal vez mi película predilecta sea After Yang (Kogonada, 2021), un retrato sensible y profundo y filmado del carajo de una familia que adopta a un androide sintiente.
El futuro llegó hace rato y, para bien o para mal, aquí estaremos para contemplarlo.
Y así, querida persona lectora, es como llegamos a la última edición del año. Gracias, de corazón, por tu interés y tus lecturas si es que estás leyendo estas palabras. Si llegaste hace poco, te cuento que Picnic sideral🪐cuenta con casi 80 ediciones a la fecha que abordan los más variados temas para leer y releer, sin perder actualidad. Si hace rato andás por acá, sólo me queda volver a agradeceros.
El año que viene se presume más místico, errático y convulso que nunca, y aquí estaremos para dar cuenta de los hechos e intentar generar marcos de lectura de la realidad que aporten perspectivas de análisis desde la narrativa, la ficción y la fe, que a esta altura pueden cosiderarse una misma cosa.
Ante el más ridículo apocalipsis, siempre tendremos MATEEEE 🧉
¡Eso es todo, amigxs!
Gracias por compartir este viaje por el cosmos de nuestra cultura.
Por las dudas, vamos con un poco de data que nunca está de más aclarar:
Mate es un medio autogestivo que depende de tus aportes y que busca ofrecer progresivamente más formatos, más contenidos, más todo. Contamos con tu aporte, sea por única vez o una suscripción mensual, en somosmate.ar.
Mirá Mate News todos los lunes y jueves a las 20 con Ivana Szerman.
Los viernes a la misma hora nos encontramos en vivo para repasar la semana.
Además tenemos otros espectaculares newsletters, como:
Mate Mundi: El recorrido internacional de la semana y todos los memes sobre lo inepta que es la ONU de la mano de Viole Weber. Suscribite acá.
Alto ahí: El newsletter sobre abusos policiales y violencia de género de Agus Colombo. Suscribite acá.
Y si éste te gustó compartilo en tus redes.
¡Ah! Seguinos, suscribite, danos like. Estamos en Instagram, Twitter, TikTok, Twitch, YouTube y sí, también Facebook. Más instrucciones que “La Macarena”.
Te queremos. Por esto y por todo, gracias.
Santiago 👽
Santiago Martínez Cartier nació en Buenos Aires en 1992. Se define como escritor de ciencia ficción. Lleva seis novelas publicadas desde el 2014 hasta la actualidad. Forma parte de Criolla Editorial. Colaboró como redactor en diversos sitios especializados en cine y literatura, como Hacerse la crítica, House Cinema y El Teatro de las Voces Imaginarias, entre otros. Produjo el audiolibro El quinto peronismo en formato radioteatro, adaptación de su novela homónima. Organizó eventos culturales y programó y presentó ciclos de cine. Palermo Dead (2021), una sucesión de relatos de terror que transcurren en un edificio maldito construido sobre el Cementerio de la Chacarita, es su último libro.
muy buena nota!
hablando de peliculas: ¿te olvidaste de HER o la salteaste a propósito?
Gracias Santiago x tanto! Excelente News este y todos.. un gran abrazo y feliz 2024!