An English version of this article is available here.
La semana pasada, el columnista estrella del New York Times, Ezra Klein, publicó un episodio de su podcast titulado “El gobierno sabe que la inteligencia artificial general está a punto de llegar” en el que entrevistaba a Ben Buchanan, el responsable de las decisiones sobre la IA en la administración Biden.
En él afirmaba que había hablado con muchas personas que sabían mucho del tema y todas le habían confirmado que la “inteligencia artificial general”, que hasta hace poco se pensaba que llegaría dentro de unos 15 años, en realidad estaría a la vuelta de la esquina: que iba a ocurrir en unos cuantos meses o muy pocos años. En todo caso durante el mandato de Trump.
Y para evitar el lio semántico que hay liado en torno a lo que es una “inteligencia artificial general” (AGI, por sus siglas en inglés), lo definía de la siguiente manera:
“Una inteligencia capaz de hacer basicamente cualquiera de las cosas que un humano puede hacer con un ordenador, pero mejor”.
Y para dimensionar el asunto, afirmaba:
“Creo que estamos en la cúspide de una era en la historia de la humanidad que no se parece a ninguna de las que hemos experimentado antes. Y no estamos preparados, en parte porque no está claro qué significaría prepararse. No sabemos cómo se verá esto, cómo se sentirá. No sabemos cómo responderán los mercados laborales. No sabemos qué país llegará primero. No sabemos qué significará para la guerra. No sabemos qué significará para la paz.”
Y mira que seguro que estaba intentando ser grandilocuente, pero creo que se quedaba cortísimo. ¿Qué pasaría si de verdad fuera a existir una tecnología que, con una fracción irrisoria de lo que cuesta “producir” un trabajador (que es, recordemos, criar a un niño, educarlo y pagar todas sus necesidades durante ~80 años) pudiera hacer las mismas cosas incluso mejor? ¿Qué pasaría si, además, esto ocurriera de repente y en menos de 3 años?
En primer lugar, se vendría abajo todo el sistema económico el día 1. Las empresas, primero en EEUU, luego en todas partes, ante los rumores de la existencia de esta tecnología, empezarían a despedir gente en masa: teleoperadores, corredores de seguros, programadores, abogados, copywriters, creativos, financieros…
Cundiría el pánico, no solo entre los trabajadores, sino también entre las empresas que no sabrían cómo reaccionar a semejante shock de mercado. Las bolsas se estrellarían porque los despidos no solo significarían disminuciones del gasto, sino también pérdidas masivas de clientes. Los disturbios empezarían en los países donde no hay un colchón social que te soporte si te despiden, seguramente en América Latina y en Asia.
Como se trata de una tecnología que ha nacido distribuida y que ya está en manos de muchos agentes en muchos países, antes de que lo supiéramos habría una guerra abierta por hackear al de enfrente usando IAs (que, según esta definición, serían más eficientes que los grupos de hackers de la actualidad) y, al contrario, otra por protegerse de ellas.
Hay un meme de internet que se pregunta qué ocurre cuando una fuerza imparable choca contra un objeto inamovible. Aquí estaríamos exactamente en ese caso: ¿qué pasa cuando dos IAs técnicamente iguales compiten por destrozarse? Que todo depende de su capacidad de computación. Los estados tendrían que militarizar los centros de datos para que toda la capacidad operativa estuviera al servicio de sus IAs.
Habría desabastecimiento, caos y colapso financiero. La sociedad se fracturaría. Millones perderían su propósito de la noche a la mañana y la humanidad enfrentaría una pregunta existencial: ¿seguimos siendo los dueños del mundo o solo sus testigos?
Esto ya ha ocurrido en el pasado: con el pan congelado. Recordarás que, hasta hace unos 15 años o así, si mal no recuerdo, todo el pan que había en las tiendas eran las famosas “pistolas” que se hacían en un horno industrial y se distribuían en furgoneta por las panaderías. Entonces, alguien inventó un hornito y un tipo de pan congelado que se podía instalar en cualquier tienda. Y fue el apocalipsis del pan. De la noche a la mañana, las pistolas de horno desaparecieron y el país se llenó de aquellas barras chiclosas que olían increible los primeros diez minutos y luego no había quien se las comiese. Antes de que nos diéramos cuenta, te las regalaban hasta en las inmobiliarias. Seguro que no quedo ni el 1% de las fábricas de pistolas en pie, ni de los repartidores, claro. Al cabo de los años, con el mercado inundado de pan trucho, nació una industria nueva, la del pan artesano de masa madre que solo se puede hacer a mano y no se puede vender congelado. Pero eso ya fue otra historia.
No estoy de broma (bueno, un poco, sí :p), el mecanismo económico que operaría con la IA sería el mismo.
Ya en serio, si me permito la broma es porque estoy completamente convencida de que todo esto no va a ocurrir… Y para que veáis que pongo skin in the game, me juego una cena con cualquiera que quiera apostar en los comentarios que habrá una IA general en menos de 36 meses. ¡ea! (Además, si me toca pagar a mi, como se habrá venido el mundo abajo, tendrá mucho más valor que te inviten a cenar… :p).
Por qué no habrá AGI, explicado a los niños
Lo que llamamos “IA” es un nombre genérico que engloba varias ramas de desarrollo de software que convergen en torno a algunas ideas nuevas.
Una es la que está detrás de lo que se ha denominado machine learning. La manera tradicional de enfrentarse a una base de datos era el método científico. Los humanos proponían una hipótesis sobre los datos y le pedían al ordenador que verificara o descartara esa hipótesis.
Por ejemplo, si cogemos una base de datos sobre los desplazamientos de población en una ciudad, le podemos preguntar a la máquina cuál es la media de kilómetros que realizan las mujeres (si tenemos esas variables) o si la distancia media que realizan las mujeres es superior a la que realizan los hombres.
La ciencia de las bases de datos está en su infancia y es que, hasta que se extendieron los ordenadores, no había en realidad grandes repositorios. Así que avanza muy rápido. Desde hace unos años, los investigadores han descubierto que es mucho más eficiente dejar que sea el ordenador el que encuentre las relaciones. En lugar de usar una hipótesis predefinida, los modelos de machine learning analizan grandes volúmenes de datos, buscan patrones y luego hacen inferencias a partir de esos patrones. La principal diferencia radica en que, en lugar de que el ser humano dicte las preguntas, el algoritmo mismo formula las preguntas al descubrir relaciones subyacentes que no eran evidentes de antemano. Esto ha permitido avances en tareas complejas como el reconocimiento de voz, el análisis de imágenes médicas y la predicción de comportamientos.
Por otra parte está el procesamiento de lenguaje natural, que es lo que hay detrás de ChatGPT, DeepSeek y todos esos chats. Hace unos años, un grupo de investigadores propuso una lógica nueva para analizar el lenguaje. En lugar de hacer un analisis secuencial de las palabras, como hacían aquellos traductores online que -recordarás- no daban pie con bola, descubrieron que tenía mucho más sentido meter todas las palabras de un texto en un “transformador”, asignarles una serie de valores a cada una y comparar esos valores, que son como pequeños pesos, con los del resto de palabras. De manera que se obtenía una matriz que relacionaba todas las palabras del texto con las demás.
Y acertaron, porque es cierto que el lenguaje funciona así. Una palabra no se relaciona solo con la que tiene delante y detrás, sino con todas las demás del texto. Si el lenguaje se produce en una secuencia lineal es porque no somos capaces de pronunciar varias palabras al mismo tiempo.
Sumando esa idea a todo lo que se había avanzado hasta ese momento en machine learning se abría otra puerta: ya no sería necesario que los humanos tunearan a mano cada uno de esos pequeños “pesos” que se le dan a cada parte de una frase -que sería imposible-, sino que se le podía pedir al ordenador que infiriera las relaciones por sí mismo.
Por eso se dice que los modelos de IA hay que “entrenarlos”. Hay que darles una base de datos gigantesca sobre la que se hacen preguntas y una base de datos de “respuestas” correctas para que aprendan a tunear todo ese sistema de pesos y valores hasta que aprender a acertar con lo que esperamos de ellos.
Es como si hubiéramos aprendido nuevas maneras de cocinar. Como si lleváramos toda la vida haciendo el pollo asado y ahora hubieramos aprendido que se puede hacer también, en menos tiempo y más rico, en una air fryer.
Pero lo que no vamos a conseguir nunca es meter el pollo en la air fryer y que salga una ensalada de pepino. Y con esto pasa lo mismo.
La inteligencia, como ya hemos visto en otros artículos, es un fenómeno muchísimo más complejo que el lenguaje o que las imágenes. Mucho menos el lenguaje disponible en Internet, que es de lo que se están “alimentando” estas máquinas; el pollo que estamos metiendo en el horno. El lenguaje natural y las imágenes, en realidad, una representación hipersimplificada, mediada y tamizada por las expectativas sociales del pensamiento humano. Mientras no haya una manera de que una máquina analice el pensamiento humano en toda su complejidad, no podrá imitar su inteligencia ni ser, en esa descripción de Ezra Klein, una “ingeligencia artificial general”.
Así que eso que hemos llamado IA, por su propia naturaleza, por mucho que avance, nunca convertirá una cosa (el lenguaje) en otra (una inteligencia). Por eso estoy convencida de que no habrá una AGI.
Para qué servirá de verdad la inteligencia artificial
Más allá de esto, la gente que está siguiendo el tema con conocimiento de causa lleva mucho tiempo observando otro problema de esta tecnología, y es que no es capaz de ser rentable.
Han transcurrido dos años desde el lanzamiento al estrellato de ChatGPT y todavía no hay una estrategia clara para generar ganancias sostenibles con esta tecnología. Los costes operativos de esa IA generativa son extremadamente altos y los ingresos obtenidos de los usuarios no cubren ni una fracción. OpenAI pierde dinero a espuertas con cada consulta, tanto de los usuarios que no pagan como de los que pagan.
Y no está claro aun cuál es el business case o el use case, esto es, exactamente para qué servirán estas aplicaciones, que haga que mereza la pena pagar el dineral que cuestan. Esto no es lo que ocurre con las tecnologías que sí funcionan en Internet, que encuentran un montón de aplicaciones muy rápido (pensemos en el GPS o en el email).
Yo sí creo que habrá algunos use cases para la IA. Creo -aunque para explicar esto necesitaría otro artículo- que sus altísimos costes no son consecuencia de la tecnología en uso, y tampoco son consustanciales a ella. Se podría hacer lo mismo con mucha menos capacidad de procesamiento, como ha demostrado recientemente DeepSeek. Los altísimos costes son consecuencia de su modelo financiero, donde necesitan hacer creer que son necesarias todas esas inversiones porque, de otra manera, se volverían una industria ininvertible. Y a día de hoy viven de los inversores, no de las ventas y no parecen tener otro plan. En otras palabras: el uso intensivo de chips de la IA is not a bug, it’s a feature.
Pero, perdón, que me voy por las ramas. Estaba diciendo que sí habrá casos de uso en la IA.
El primero y más evidente es la traducción de unos lenguajes a otros, donde la IA ya es mejor que las personas. Quizás esto abra la puerta a una capacidad de conexión cultural que supere todas las barreras que nos impone el lenguaje. Y yo, si fuera traductora, me replantearía mi vida profesional, esos puestos de trabajo sí se van a acabar. El segundo es menos evidente.
Los seres humanos no estamos preparados para la sociedad conectada. Durante centenares de miles de años nuestro cerebro solo ha necesitado comprender un entorno con muy pocos inputs -relativamente- y un grupo social muy pequeño. Y nuestras herramientas cognitivas están adaptadas a esas necesidades. Por eso, como explica Harari, hemos conquistado el mundo gracias al cotilleo y todas nuestras estrategias sociales -el amor, el poder, la fuerza- funcionan mucho mejor en grupos pequeños.
Pero hoy vivimos en un mundo inundado de datos a una escala que no podemos comprender. Internet es una especie de océano inmenso lleno de información y de contactos y nuestra cognición no nos permite comprenderlo, no estamos preparados
.
Hasta la aparición de la IA, la mejor interfaz que teníamos para entender este universo de datos y de conexiones sociales eran los buscadores, pero era un método muy primitivo. Si uno quería saber qué opinaba el mundo sobre un tema -que sería el equivalente al cotilleo tradicional, pero con millones de personas- se tenía que meter a investigar en un enlace detrás de otro durante días y horas, si es que era posible llegar a una conclusión. Con las redes sociales era todavía más difícil y las pocas herramientas dedicadas a captar el “sentimiento” de las redes fallaban más que una escopeta de feria.
Yo creo que esto que hemos llamado IA será, en realidad, la primera interfaz que nos permita conectar -o traducir- esa inmensidad amorfa de los datos y adaptarlos a la cognición humana.
Alguna de las aplicaciones que mejor está funcionando, como DeepSearch, van en esta línea. Facilitar el acceso y la comprensión de grandes cantidades de información a escala de una única persona.
Y todo esto no es poco. Solo con esto la IA podría ser un salto de gigante en la integración del cerebro humano en la sociedad de la red. Una nueva posibilidad de pensar y de entender el mundo con herramientas nuevas donde de verdad podamos interrogar al conjunto del conocimiento y recibir una respuesta a la medida de nuestras posibilidades. ¡Las oportunidades que se abrirían serían inmensas! Por primera vez habríamos superado la necesidad de almacenar conocimiento, que es una cosa a la que dedicamos una barbaridad de tiempo y esfuerzo, por ejemplo.
Solo esperemos que, cuando llegue, no sea tan trucha como el pan chicloso.
No conocía el término de pistola de pan ;)
Carezco de los conocimientos necesarios para saber si habrá o no una inteligencia artificial general, pero coincido en que es abrumador tener tantísima información de tantísimos lugares del mundo en tiempo prácticamente real. Y creo, es una hipótesis, que parte del malestar viene en parte de esto. Nuestro cerebro no está preparado, estamos sobrepasados, saturados.
Ahora bien, si entendemos la inteligencia artificial general como todo lo que un ser humano puede ser capaz de hacer, quizá no llegue. Pero quizás sí llegue algo diferente. Y, para eso, no estamos preparados.
Se me ocurre:
Un programa capaz de medir el sentimiento en tiempo real sobre un tema y de crear miles de bots y artículos y vídeos para modificarlo.
Un programa capaz de modificar el mercado financiero mundial a su antojo (o al de quien esté al teclado) y hacer que la crisis del 2008 sea una cuesta de enero
Ni idea.
Pero vamos a ver cambios en los próximos años.
Preparamos las palomitas?
Para variar, gran y enriquecedor artículo.
Si le interesa a alguien, en este podcast de Jordi Wild se trata este tema en particular y dan una visión bastante esclarecedora, desde un punto de vista a la vez técnico y filosófico de por qué una AI General es muy difícil que llegue a realizarse. Lo dejo hasta en el punto exacto del vídeo para ahorrar tiempo: https://youtu.be/Kvj6hfgVjV4?t=137