Estos días han caído en mis manos, por recomendación de
, dos entrevistas con Lian Wenfeng, el fundador de #DeepSeek. Son bastante técnicas, tanto por el lado de la tecnología como por la parte financiera (La empresa matriz de DeepSeek es un fondo de inversión “cuantitativo”, de los que usan modelos matemáticos para tomar las decisiones de inversión). Pero tiene una pregunta que me ha llamado mucho la atención porque creo que explica perfectamente dónde se ha torcido el rumbo de esto que hemos llamado “inteligencia artificial” y por qué creo que se va a quedar en un bluff.Como ya hemos debatido, todo el lío que hay montado con la inteligencia artificial gira en torno a la idea de que estas compañías van a acabar por llegar a una “inteligencia artificial general”. Es una manera de reconocer que los actuales large language models no son inteligentes, pero sin abandonar la expectativa de llegar a una verdadera IA. Que es un problema de grado de desarrollo, pero que van por el buen camino.
Y esto es lo que expresa abiertamente Liang en la entrevista:
“We understand that the essence of human intelligence may be language, and human thinking may be a language process. You think you're thinking, but you're actually weaving language in your head. This means that human-like AGI may be born from LLMs.”
Pero es que eso no es así. La inteligencia no es un proceso linguístico, como demuestra el hecho de que los seres humanos tengamos la capacidad de pensar antes de tener lenguaje.
“Como animales que somos, nuestra forma primaria de inteligencia es emocional. Pensamos y comprendemos con emociones y usamos el lenguaje como vehículo para ordenar esas emociones y compartirlas con los demás.”
Confundir la inteligencia con el lenguaje es como confundir el amor con los poemas.
Y no puede ser, no es posible, que nadie en Silicon Valley haya hablado con los muchos psicólogos, neurólogos y neurocientíficos que demuestran que la inteligencia es infinitamente más compleja que el lenguaje.
Tiene mucho más sentido pensar que un grupo más o menos númeroso de técnicos emocionados y borrachos completamente de expectativas por su trabajo, como Liang, han ido a coincidir con un montón de intereses creados que llevan muchísimo tiempo esperando que venga una tecnología que de montañas de beneficios.
Y aunque es cierto que los large language models son un paso de gigante en la interpretación del lenguaje, es probable que no pasen de ahí.
El mundo emocional es muy complejo. Los intentos de hacer reconocimiento fisiológico de las emociones, como por ejemplo a través del reconocimiento facial de las mismas, suelen ser una burda simplificación que es ampliamente criticada en contextos de investigación. Sabemos que las emociones proceden de una parte muy antigua de nuestro cerebro en términos evolutivos, y que han ido ganando en complejidad como instrumento vital para la socialización.
Así que coincido contigo en que todavia le queda mucho camino a la IA si quiere parecerse a un humano, porque ni siquiera comprendemos del todo bien como operan las emociones.
Y ello sin entrar en terrenos tan importantes y problemáticos como la identidad, los valores o las necesidades fisiológicas y psicológicas de los humanos. ¿Tendrá una IA orgullo, necesidad de aceptación social o impulso de reproducirse y dejar un legado?
Obviamente, estoy completamente de acuerdo; pero sabemos, por historia, que el interés siempre se antepone a la razón, aunque esta última acabe imponiendose.