[Gran angular] La verdad de la IA
Fundamentos, promesas e intuiciones sobre el futuro de la inteligencia artificial.
“In a time of deceit telling the truth is a revolutionary act.”
― George Orwell
Los seres humanos tenemos dos conflictos con la verdad: uno es que no podemos alcanzarla, el otro es que no sabemos vivir sin ella.
Los estímulos que recibimos de la realidad pasan a través de los sentidos y después se filtran a través del lenguaje y de los modelos mentales que ordenan nuestra forma de pensar: se distorsionan. Así que nuestra “verdad” interior es siempre una traducción de la realidad, nunca la realidad misma.
Pero las sociedades humanas no pueden existir sin una verdad compartida. Una ciudad moderna sería imposible; impracticable, si la mitad de su población se condujera de acuerdo a las leyes de los aztecas. No podría existir una democracia si todos —o la inmensa mayoría de los ciudadanos— no compartiera los principios del liberalismo político. Para tener normas e instituciones comunes necesitamos una única cosmovisión.
A falta de una realidad exterior a la que agarrarnos, la historia de nuestra especie se puede contar como un empeño por inventar algo que se parezca a una verdad común y extenderla —imponerla, si es preciso—hasta los confines del grupo.
En el inicio de los tiempos esa verdad fue Dios. Las religiones no eran otra cosa que un “mito” comunitario del que emanaban una serie de normas que había que cumplir con independencia de la verdad íntima de cada uno. Más tarde, en la primera versión del humanismo, los antiguos griegos creyeron que la poesía era el instrumento por el que los hombres encontraban lo que era cierto del mundo, porque si los dioses te habían dado el don de la belleza, es que tenías algo importante que contar.
Pero los grupos sociales, a medida que se vuelven más complejos, también necesitan verdades más sofisticadas y un día la religión y la belleza se quedaron cortas para explicar el mundo. Entonces se hizo fuerte el método que nos ha traído hasta aquí: las matemáticas, el lenguaje en el que están escritas las leyes del universo.
La gran virtud de las matemáticas consistía —como casi todo lo que tuvo éxito después— en poner a pensar a mucha gente junta. Eran una caja llena de herramientas que cualquiera —si adquiría el conocimiento suficiente— podía usar en igualdad de condiciones. Así fue como hicieron posible que miles —primero— y luego centenares de miles de personas pudieran llegar a las mismas conclusiones. Así fue como la verdad se emancipó del poder y pasó a ser de todos.
De esa posibilidad emergió un horizonte nuevo para la humanidad. Las matemáticas abrieron la puerta a la colaboración científica y económica, dieron lugar al comercio y al desarrollo de la medicina e hicieron posible el tránsito del absolutismo a la democracia. Gracias a ellas pudimos imprimir periódicos, repartir escaños, cobrar impuestos, mandar cohetes al espacio, cruzar el atlántico y curar la viruela. Todos los descubrimientos de los últimos 500 años reposan sobre sus verdades compartidas.
La modernidad sustituyó a los reyes absolutos por verdades absolutas y el siglo XX terminó por convertirse —quizá— en el único momento de la historia donde la verdad parecía universal e indiscutible. Un tiempo donde, por más que hubiera bloques, existía un acuerdo sobre las constantes que hacían posible la civilización: el progreso, la ciencia, el estado-nación. Incluso la lucha de clases, si se quiere.
Hace unos 100 años un matemático llamado Shannon tuvo una idea.
Pese al desarrollo espectacular de las ciencias exactas, el dominio de las palabras se había mantenido prácticamente inalterado desde mucho antes de la Revolución Industrial. En 1935 los libros seguían siendo el único método para almacenar y transmitir la palabra escrita y no había más forma de acceder su información que leyendo secuencialmente una página tras otra.
Shannon propuso que cualquier tipo de información —como las palabras, la música o las imágenes—, si se descomponía en trocitos lo suficiente pequeños, se podía codificar como una colección de unos y ceros (o lo que es lo mismo, de verdaderos y falsos) y que esos estados binarios se podían transmitir como impulsos eléctricos.
Esa idea — que era, por cierto, la misma que estaba detrás del telégrafo— es la que hoy permite que tu teléfono almacene las fotos de tus hijos y la que todavía usan los cables de fibra óptica que cruzan el océano atlántico. La matematización de la información hizo posible la computación, primero, y las redes, después.
Y mató a la verdad.
Ahogados en información
Entre finales del siglo XX y nuestros días la computación y las redes detonaron una explosión de la cantidad de información que producimos y consumimos. Un dato para dimensionar este fenómeno: en los 7.000 años que transcurrieron desde la invención de la escritura hasta los ordenadores se habían escrito en torno a 130 millones de libros. Hoy en Internet se crean, cada año (¡cada año!), el equivalente a 400.000 billones.
Si fuera agua, toda la producción escrita de la humanidad hasta la computación cabría en una cucharita. Mientras tanto, la información que creamos anualmente en el siglo XXI llenaría algo así como tres piscinas olímpicas. Y todo ese líquido no deja de verterse, año tras año, en el océano de la red.
El monumental desafío con el que se nos hemos encontrado es este: Toda esa información sigue almacenada como ceros y unos, como si fuera un océano lleno de gotas de agua indistinguibles unas de otras. Internet es una masa inabarcable de información sin sentido.
La computación resolvió como almacenar y copiar la forma de las palabras, pero no su significado, mucho menos las relaciones entre unas y otras. Mientras tanto, la única forma de comprender el significado de toda esa información seguía siendo, hasta hace muy poco, la lectura convencional. Y sin embargo es imposible para un único ser humano leer una millonésima parte de la información disponible en Internet.
Esa revolución digital mal digerida es la que nos ha dejado, en los años 20 del siglo, ahogados en información y vacíos de sentido. Sin una forma de comprender toda la información que circula a diario en Internet, las redes se han convertido en factorías de caos, la polarización hace imposible el debate y la sensación generalizada es que nadie — ni los expertos, ni los gobiernos, ni los medios — entiende ya nada.
De un mundo con una verdad única, que se desayunaba todas las mañanas desde las primeras páginas de los periódicos y se metía en la cama contigo tras el telediario, hemos pasado a un mundo sin verdad. O con millones de verdades individuales, imposibles de reconciliar unas con otras.
La confusión generalizada en la que vivimos hoy —desde la incapacidad de las estructuras económicas para entender lo que nos ocurre, hasta la ansiedad de la gente que tiene más información de la que es capaz de procesar— nace aquí.
Intentando salir de este embrollo, la sociedad contemporánea vive inmersa en el desafío de cartografiar esta nueva realidad: de comprender Internet, que es lo mismo que comprendernos a nosotros mismos en toda nuestra complejidad globalizada.
Google fue un primer intento. Wikipedia ha sido otro. Hasta Blockchain tiene en su core la ambición de crear una verdad más allá del poder. Las técnicas de “big data” y las estadísticas modernas son otras dos aproximaciones, igual que los algoritmos de las redes sociales. Con sus diferentes ángulos, todas estas cosas son intentos de hacer un mapa de ese océano: de volver a hallar una verdad compartida, pero esta vez para 8.000 millones de seres humanos.
Y eso que hemos llamado “inteligencia artificial” es un nuevo mapa.
Todo lo que necesitas es atención
Las matemáticas son un “lenguaje formal”: un código con normas estrictas, definidas y universales que permiten realizar operaciones de forma precisa y reproducible. Un sistema diseñado para eliminar la ambigüedad. Cualquier “hablante” del lenguaje matemático puede conocer cuáles son las relaciones entre unos signos y otros.
Por el contrario, los lenguajes “naturales” —como los idiomas— no están formalizados. No tienen manual. Son orgánicos: emergen en una comunidad con reglas ambiguas y variables. No hay ninguna norma universal que explique cómo se relacionan los significados de las palabras unos con otros.
Y sin embargo los hablantes se entienden.
Durante décadas, los lingüistas habían intentado descifrar el código secreto que une los significados de las palabras, sin éxito. Estaban empantanados. Por esa razón, recordarás, el traductor de Google era terrible antes de esto que hemos llamado IA.
Hace nueve años, un equipo de investigadores de Google propuso probar otra cosa. En lugar de analizar las palabras de un texto secuencialmente —una tras otra—, propusieron construir un mapa de relaciones entre todas ellas en paralelo. De manera que los vínculos entre cada palabra y todas las demás formaban una especie de malla donde cada enlace podía tener un valor distinto y variable en función del resto.
Esos valores no vendrían dados por una ecuación preexistente —como ocurre con las normas de las matemáticas— sino que nacerían de la observación del uso real del lenguaje: de la revisión de millones de textos escritos por seres humanos en contextos reales. Una vez terminada esa inmersión (“training”), esos valores (“weights”) serían la representación de todas esas interacciones.
Y funcionó. De golpe, este software — que en el argot técnico se conoce como “Large Language Models” o LLMs — fue capaz de procesar el significado de las palabras con una precisión inédita. Cinco años después se presentó ChatGPT y el resto de aplicaciones que conocemos hoy. De ahí salieron las traducciones tan extraordinarias que hace la IA y esa sensación de estar hablando con un humano que producen estas aplicaciones.
Y aunque se ha dicho muchas veces que son máquinas de computar tokens, yo creo que la imagen que mejor los define es otra: lo que llamamos popularmente “modelos” de “IA” son mapas. Mapas de las relaciones de sentido presentes en la base de datos sobre la que ha sido entrenado. En el caso concreto de los modelos que se han hecho famosos, son representaciones de Internet, igual que si fueran una cartografía de las profundidades del océano.
Nada más. Aún a día de hoy todos los modelos (ChatGPT, DeepSeek, Claude, etc.) son variaciones de esta misma tecnología. En sus formas más avanzadas son combinaciones de varios LLMs a los que se dan distintas instrucciones, o sistemas que mezclan esa mecánica con la programación simbólica tradicional.
¿Podemos encontrar en esos mapas la verdad que se esconde en Internet? ¿Tienen los LLMs la llave para devolvernos el horizonte de las certezas perdidas?
La veleidosa verdad de las palabras
A diferencia de lo que ocurre con las matemáticas, las respuestas de los LLMs que han sido entrenados en Internet no pueden ser deterministas. La raíz cuadrada de 9 es 3, pero la respuesta a la pregunta “¿Pueden pensar los gatos?” no es exacta. Ni binaria. El lenguaje natural no admite la precisión del álgebra. Por eso los LLMs no calculan la respuesta correcta, sino la más probable.
Se ha dicho muchas veces que “alucinan”, como si cuando producen una respuesta disparatada estuviéramos ante una excepción, una desviación de su lógica o un fallo del sistema. No es así. Simplemente no tienen, en su propia formulación, una noción de verdad como la que existe y es central en la programación simbólica o en las matemáticas.
Por eso los LLMs no pueden producir una única solución cuando el océano de información que representan no contiene una. No es un problema que se vaya a “arreglar” con más tecnología, sino una consecuencia directa de la realidad que representan. Los LLMs no pueden converger en una verdad única porque en la red, igual que en la sociedad, tal cosa no existe.
¿Es esto un problema? Si reconocemos a esta tecnología por lo que es, yo diría que no. El algoritmo de búsqueda de Google también se equivoca a veces. Sus resultados a menudo no son tan acertados como uno desearía y los usuarios nos hemos acostumbrado a rehacer la búsqueda cuando no conseguimos la respuesta esperada. También hemos aprendido a distinguir una fuente fiable de otra que no lo es. De la misma manera, los millones de usuarios que están usando esta tecnología con éxito para encontrar sentido en Internet están aprendiendo a parchear sus limitaciones.
Solo se convierte en un problema cuando la IA se pretende usar como sustituto de los mecanismos de coordinación de la economía, que no pueden funcionar sin certezas.
La verdad de la economía
La economía industrial es la aplicación de la lógica de las matemáticas a la producción de bienes y servicios: un mecanismo de coordinación de innumerables partes para generar resultados determinados, reproducibles y verificables —es decir, resultados ciertos.
Lo que sostiene todo ese mecanismo no es la producción, sino la garantía: la promesa de que una máquina funcionará de una manera predecible o que un contrato se cumplirá. Las garantías de los electrodomésticos, la responsabilidad legal de las empresas y los estándares de calidad son la verdadera expresión del sistema productivo.
Imaginemos lo contrario: que al comprar un billete de avión no existiera la expectativa de llegar a destino, sino únicamente una probabilidad de hacerlo. O que un electrodoméstico no estuviera diseñado para funcionar, sino para “probablemente” funcionar. En ese mundo, no habría economía industrial tal como la entendemos.
Para solidificar esas certezas, los sistemas legales modernos imponen unos costes muy elevados a las desviaciones. Si un avión no vuela, la aerolínea tiene que compensar con mucho dinero. Los fabricantes de aparatos electrónicos son responsable de los daños que causen sus productos, igual que los abogados lo son de las consecuencias de un error en un juicio o en una due diligence. La economía industrial no solo produce: asume el coste de garantizar lo que ha producido.
En ese engranaje, los LLMs son una bomba: una tecnología que por diseño trabaja con probabilidades no puede sostener un sistema que funciona con certezas. Por eso la IA brilla en los contextos donde la ambigüedad es aceptable —escribir un borrador, resumir un texto, explorar ideas, incluso explotar datos— y se atasca donde lo que está en juego es el dinero, la vida o la libertad de alguien, como en el derecho, las finanzas o la medicina.
Si la IA quiere jugar un papel en la economía, tendría que conseguir algo que no es nada fácil, ni evidente, ni está resuelto todavía: producir resultados ciertos.
Por esta razón, hoy todo el campo de la “inteligencia artificial” está dedicado a un mismo objetivo de fondo: tender un puente entre el pensamiento probabilístico de los modelos de lenguaje y el pensamiento simbólico de las matemáticas y la programación clásica, donde existen reglas explícitas de verdadero y falso.
Para intentar cerrar esa brecha, exploran distintas vías: descomponer una pregunta en subproblemas más simples, donde sí existan verdades previas; hacer que varios modelos se enfrenten entre sí, de modo que unos corrijan las desviaciones de otros; o conectar los LLM con herramientas simbólicas externas, capaces de verificar resultados bajo criterios formales de corrección.
Si no lo consiguen, la tecnología corre el riesgo de quedarse en lo que es hoy en su forma más pura: un sistema muy sofisticado de generación de lenguaje, pero con una utilidad económica limitada en todos los contextos donde lo que importa no es lo que es verosímil, sino lo que es cierto.
El caso particular del software
En los últimos meses, los avances de Anthropic con una herramienta que permite hacer código llamada Claude Code han hecho pensar que los LLMs podrían conseguir ese objetivo.
El caso del software es particular. Ocurre que los programadores llevan décadas guardando el código que escriben en un repositorio público (Github) y compartiendo criterios sobre cómo hacer ese código en otro (StackOverflow). Gran parte del conocimiento sobre código de toda la humanidad está almacenado, ordenadito, corregido, mejorado y ampliado en sucesivas versiones en dos sitios webs que, además, son de acceso libre.
De manera que este es el único ámbito en el que unos lenguajes formales, definidos y exactos —al menos, parcialmente, después hay arquitecturas, criterios y estilos de hacer código distintos— coinciden con un repositorio cultural de información donde sí existe algo parecido a una verdad única. De manera que el grado de ambigüedad que tiene esa base de datos sobre la que funcionan Claude Code y otros programas similares, es menor que el que de otras bases de datos jurídicas o médicas. Si en algún ámbito un LLM puede aproximarse a producir una “solución correcta”, es en este.
Por comparar, esto mismo no existe ni en el ámbito de las matemáticas en su conjunto. Los papers matemáticos se siguen publicando en lenguaje natural y a día de hoy no existe un “Claude Code” de las matemáticas. Solo en estos años los matemáticos están intentando formalizar todo el campo para avanzar en esta misma dirección.
Para que un LLM tuviera el mismo nivel de éxito en otro ámbito —en las finanzas, en la práctica legal, en la arquitectura, en la medicina— necesitaría que ese ámbito se formalice por completo.
¿Qué papel le queda a la IA si no puede convertirse en una pieza fundamental de la economía?
La verdad de la burbuja de la IA
Quien, con toda seguridad, tiene un problema con la verdad son las empresas que venden productos relacionados con la IA.
Sam Altman, el CEO de la empresa que lanzó ChatGPT y a quien mucha gente describe ya en público como un mentiroso patológico fue quién creó al monstruo. En 2022 Altman no se conformaba con ser el próximo Google. Tenía otro plan mucho más ambicioso. Quería convencer al mundo de que su tecnología no era solo una forma nueva de cartografíar información, sino que era una forma de inteligencia. Una entidad capaz, al mismo tiempo, de destruirnos a todos y de darnos todas las cosas que necesitamos. De acabar con la economía, de hacer la guerra, de disparar la productividad y de curar el cáncer. La IA era Dios. Altman era Noe. Y solo se salvarían del naufragio los que se subieran a su barco.
Así fue como las empresas que venden LLMs se convirtieron en las nuevas sectas adventistas del séptimo día e hicieron del apocalipsis su estrategia de venta (exactamente igual que Donald Trump, por cierto).
Así empezaron a prometer que la IA destruiría millones de empleos, que superaría a la inteligencia humana y haría a las personas “innecesarias”, que aumentaría la productividad, que curaría el cáncer, que acabaría con profesiones enteras, que conduciría mejor que las personas, que acabaría con la industria del cine y que “pondría a prueba lo que somos como especie”, entre otras muchas cosas.
Todavía hoy, Dario Amodel, CEO de Anthropic, que le copió a Sam Altman todo, hasta la mentira compulsiva, sigue afirmando que la IA “eliminará la mitad de todos los trabajos en cinco años”.
La realidad es que ninguna de estas cosas ha ocurrido. Ni va a ocurrir. Al contrario. A día de hoy, la era de la IA llena las portadas de los periódicos y las redes sociales, pero brilla por su ausencia en las estadísticas de productividad. Mientras tanto, 8 de cada 10 trabajadores intelectuales afirma no usarla en absoluto.
Mientras tanto, las empresas de la IA están entre la espada y la pared. OpenAI, la casa que mantiene ChatGPT, cerró su última ronda de financiación con una valoración de 850.000 millones. De Anthropic ya se espera que cotize por encima del billón. Por su parte, las grandes tecnológicas (Google, Microsoft, Meta, etc.) han invertido 776.000 millones de dólares en centros de datos para poner a disposición de esta tecnología y no tienen plan de parar. Han ido inflando una burbuja que solo se sostiene sobre esas expectativas de transformación de toda la economía, sobre la expectativa de una verdadera inteligencia artificial.
Para estar a la altura de las expectativas que han generado, necesitan no solo que la IA interprete la verdad de la sociedad, ni siquiera que sea capaz de crear verdades nuevas, sino que sea capaz de cosas de valor económico.
¿Pero qué significa ser de valor económico?
La verdad de la productividad
No todo el valor es económico. De hecho, las cosas más valiosas —como el aire, o el amor, o la armonía, o las matemáticas— no tienen precio. Para que algo tenga valor económico, en cambio, tienen que cumplirse dos condiciones. Primero, tiene que ser escaso: si hay infinitas copias de algo, su precio tiende a cero. Segundo, tiene que ser intercambiable: tiene que haber alguien dispuesto a darte algo a cambio de lo que tú tienes. Y para que ese intercambio ocurra, las dos partes necesitan estar de acuerdo sobre qué es lo que se está intercambiando. Necesitan, en otras palabras, una verdad compartida.
Por eso el valor económico es, en el fondo, una forma de verdad: la verdad acordada entre quien produce y quien compra sobre qué es esa cosa, cuánto vale y qué se puede esperar de ella.
Pero no toda verdad tiene el mismo valor económico. La verdad es la condición de entrada al intercambio; pero lo que fija el precio es cuánta gente la comparte. Una idea, un diseño industrial, una obra de arte o un programa de ordenador valen en la medida en que mucha gente los quiera y pocas personas los puedan producir.
Las ideas de este blog tienen mucho valor, porque solo las puedo escribir yo y le interesan a mucha gente. Al contrario, podríamos hacer con una IA un millón de Substacks llenos de contenido, publicar un post cada minuto del resto de nuestras vidas. Que si no encontramos a nadie que los quiera leer, producirán cero valor económico.
(Aprovecha y suscríbete, ¡antes de que se te olvide!)
Por esa razón, las tecnologías de la información —como el email, la fotografía digital, la nube, las redes sociales, los buscadores o la IA— aumentan la capacidad individual de los trabajadores intelectuales, pero no la productividad agregada de una economía. De hecho, la reducen. Lo que hacen, en realidad, es multiplicar el número de verdades disponibles, pero cada una de ellas menos viable económicamente que las que teníamos antes. Y es que al hacer abundantes y baratas grandes parcelas de la actividad humana, reducen la necesidad de intercambiar en los mercados. Y cuando hay menos intercambio, la economía se contrae.
Con la IA pasará lo mismo. Aumentará la capacidad individual de los trabajadores del conocimiento —en el periodismo, la consultoría, la programación, la industria editorial— y elevará los estándares de esas profesiones, pero no producirá una revolución de la productividad como ocurrió con los trenes, los automóviles o la electricidad. Producirá más verdades que nunca. Pero cada una de ellas valdrá menos.
Lo tienes explicado con más detalle en este artículo:
La verdad de la buena información
En mi opinión, el gran riesgo que corre la IA es que el valor que puede producir no depende de la tecnología en sí misma, sino de la información de la que se nutre. Como es muy evidente con el buscador de Google o su servicio de noticias, no puede existir esta tecnología si no existe una Internet llena de contenido de calidad.
La paradoja es que esos datos son el producto de los 25 años que hemos pasado conectados a Internet sin la posibilidad de encontrar la información de otra manera: si existe Reddit y Wikipedia, si hay 10.000 respuestas a la pregunta “¿cómo se hace una sopa de pollo?” es porque no éramos capaces de encontrar una única respuesta.
Pero si la IA encuentra las respuestas y, como parece que está pasando, la gente deja de consultar las webs, si llena Internet de contenido de baja calidad regurgitado por un chatbot, la misma tecnología se quedará sin material del que nutrirse. Ocurrirá entonces (ya está ocurriendo), que los LLMs empezarán a dar resultados de pésima calidad, porque la información de la que disponen esté manipulada o sea muy pobre.
Esta tecnología que es, por su propia naturaleza, recursiva, necesita de un recurso del que extraer el valor para mostrarlo y, al mismo tiempo, amenaza con acabar con él.
Mi intuición es que esta partida la van a acabar ganando los buenos creadores de contenido. En algún sitio lo he llamado “la teoría del pan congelado”: consiste en la idea de que la sobreabundancia de información produce una nueva demanda de información de la máxima calidad. Y creo que la IA acabará siendo una herramienta al servicio de quien tenga un buen repositorio de conocimiento.
La verdad sobre el valor de las personas
Hay una última idea para la que no tengo espacio en este texto y que dejo para el Gran Angular de la próxima semana (Pulsa en el botón para recibirlo en tu buzón):
No existe una única forma correcta de hacer un programa de ordenador, ni un recurso a una sentencia. No hay una solución perfecta a lo que ha de decir un artículo, ni un libro. La razón por la que la IA no consigue crear imágenes que nos seduzcan, más allá de un montón de cosas peores que las imágenes de stock —si es que eso es posible— es porque no existe tal cosa como una “buena imagen” sin la intención de la persona que la ha tomado.
El valor sigue estando en los humanos. Porque somos lo único que nos interesa.
Continuará…
Si te interesa este contenido, te va a encantar mi primer libro. Se llama “Hijos del optimismo” y es una tesis sobre las grandes transformaciones de la economía del conocimiento y lo que vendrá después.
Photo by Jon Tyson on Unsplash


guau ¡¡¡ posiblemente la lectura de la semana que mas me interesa ¡ .