La pregunta del milenio: ¿Pueden pensar las máquinas?
El tiempo se ha detenido y la humanidad vive pendiente de la respuesta a una pregunta en la que nos va la vida.
Propongo considerar la pregunta: “¿Pueden pensar las máquinas?”. Esto debería comenzar con definiciones del significado de los términos “máquina” y “pensar”. Las definiciones podrían formularse de manera que reflejen, en la medida de lo posible, el uso normal de las palabras. Pero esta actitud es peligrosa: si el significado de las palabras “máquina” y “pensar” debe emanar de su uso común, deberemos concluir que el significado y la respuesta a la pregunta, “¿Pueden pensar las máquinas?” debería estar en una encuesta, como un sondeo de Gallup. Pero esto es absurdo. En lugar de intentar tal definición, sustituiré la pregunta por otra, que está estrechamente relacionada con ella y se expresa en palabras relativamente inequívocas. La nueva forma del problema puede describirse en términos de un juego que llamamos el ‘juego de la imitación’.
— Alan Turing, Computing Machinery and Intelligence, 1950.
El mundo entero contiene el aliento. Desde el debut de ChatGPT en los últimos días de 2022, la humanidad al completo vive en estado de alerta, pendiente de la respuesta a una sola pregunta: ¿Pueden las máquinas pensar?
Y es que si la respuesta es afirmativa y lo que han llamado “inteligencia artificial” es capaz de producir una máquina que piense como un ser humano, significaría el fin del mundo tal como lo conocemos.
Para empezar, se evaporarían millones de puestos de trabajo. La economía se transformaría de formas que ahora ni siquiera podemos imaginar. Se esfumarían los impuestos y con ellos los ingresos con los que se pagan las pensiones y los subsidios de desempleo. La sensación sería la de un monstruoso terremoto global: de la noche a la mañana se tambalearían al compás los mercados y los estados.
La capacidad militar de los países no volvería a ser la que era. Los gobiernos que obtuvieran una tecnología como esa podrían ir a la guerra con un ejército ilimitado de robots y de drones; los que no, quedarían a merced de la voluntad y la protección de los nuevos titanes tecnológicos.
¿Y si no fuera un país quien accediera a esa IA? Criminales, estados rebeldes y terroristas estarían en igualdad (militar) de condiciones que los estados más poderosos.
El impacto potencial de las máquinas pensantes sería tan grande que mucha gente se pregunta si la humanidad sería capaz de sobrevivir como especie a su aparición. Si el siglo XX vivió pendiente de la amenaza de la guerra nuclear, nuestra versión actualizada de la autodestrucción es ésta. Normal que estemos pendientes de la respuesta: nos va la existencia en ello.
Pero han pasado tres años desde el lanzamiento de ChatGPT y nada de esto ha sucedido. Ni hemos alcanzado una “inteligencia artificial general” (AGI, por sus siglas en inglés), ni existen los ejércitos de robots. De momento, lo único que ha revolucionado la llamada “IA” han sido las bolsas que, subidas a unas expectativas descomunales, han creado una enorme burbuja que hoy amenaza con estallar en una crisis financiera similar —o peor— que la de 2008.
Y, sin embargo, a pesar del gatillazo de los chatbots, que lo de hoy sea una burbuja no termina de despejar todas las incógnitas. Todavía hay algunas voces que siguen empeñadas en la posibilidad de una AGI. Podría estar ocurriendo, dicen, lo mismo que pasó con los ferrocarriles en el siglo XIX o con Internet en los años 90, que primero produjeron dos burbujas bursátiles porque los inversores quisieron ir demasiado rápido y apostaron por ellas antes de que llegaran a dar su gran salto, pero después llegaron a producir las transformaciones que prometían.
Así es como seguimos colgados de la pregunta del milenio: ¿Llegará esta tecnología a producir una forma nueva de inteligencia?
En este artículo vamos a contestar esa pregunta de tal forma que cualquier persona, desde el sentido común, sea capaz de formarse su propio juicio.
Para empezar, habría que decir que existen dos preguntas distintas, en realidad.
Una es si estas tecnologías que hoy están en ascenso y que se han dado en llamar “IA” (y que incluyen los chatbots, eso que llaman “agentes”, etc.) pueden llegar a ser inteligentes.
Y la segunda es más amplia: se trata de determinar si alguna máquina imaginable, aunque no exista en el presente, podría, ahora o en el futuro, llegar a pensar.
¿Puede la IA actual producir una verdadera inteligencia artificial?
La idea de que una máquina que sea capaz de pensar ha acompañado a los humanos desde hace miles de años. Pero definir “máquina” e “inteligencia” no era una tarea fácil. Al contrario, “¿qué significa pensar?”, “¿qué es la mente?” y “¿qué es la conciencia?” son algunas de las preguntas más difíciles que nos hemos formulado nunca. Son muy pocos los autores que se atreven con ellas y durante miles de años estuvieron recluidos en el ámbito del pensamiento que se ocupa de las preguntas difíciles: la filosofía.
Hasta que un matemático inglés llamado Alan Turing formalizó en 1950 en qué debería consistir una futura inteligencia computacional. Para ello, propuso un juego con tres jugadores: A, B y C.
A y B eran un hombre y una mujer. En una sala distinta, separado de ellos y aislado, C era un interrogador que podía comunicarse con A y B, pero solo a través de mensajes enviados con un teletipo. De manera que la conversación entre los tres tomaba la forma de una serie de mensajes de texto, como si fuera un chat. Cada jugador tenía un objetivo. El del interrogador era descubrir quién de las otras dos personas era el hombre y quién la mujer. Mientras tanto, el objetivo de B era que el interrogador tuviera éxito, pero el de A era que se equivocara: engañarle, hacerle creer que no era lo que decía ser.
¿Y si reemplazáramos a A con una máquina?, se preguntaba Turing, ¿se equivocaría el interrogador tantas veces como antes? La “mejor estrategia [para la máquina] sería intentar ofrecer las respuestas que daría naturalmente una persona” concluía.
Así, la pregunta sobre si las máquinas podían pensar quedaba reducida a una mucho más simple, más fácil de medir y de formalizar: “¿Hay ordenadores digitales imaginables que puedan tener éxito en el juego de la imitación?“ ¿Pueden las máquinas engañar a los humanos y hacernos creer que son uno de nosotros?
El software no es nada más que una rama de las matemáticas: evoluciona buscando soluciones a problemas concretos y bien definidos. Al contrario que las disquisiciones filosóficas sobre la inteligencia, el juego de la imitación era el tipo de problema que los ingenieros sabían abordar y disfrutaban resolviendo. Uno que, además, tuvo muchísimo éxito capturando su imaginación.
En 1990 Hugh Loebner comenzó a ofrecer un premio a quien creara el software que mejor pudiera jugar a ese juego. Solo que ya no se llamaría “el juego de la imitación”, porque aquello no sonaba demasiado inteligente: pasó a conocerse como el Test de Turing.
A pesar de que el formato recibió muchas críticas, durante los siguientes treinta años distintas organizaciones (entre ellas la universidad de Cambridge, el Dartmouth College, el Museo de la Ciencia de Londres y las universidades de Reading y del Ulster) mantuvieron vivo este galardón que otorgaba un poquito de dinero, mucho prestigio y más proyección a quien consiguiera que una máquina se hiciera pasar por una persona. El juego del engaño de Turing se convirtió en la medida de la “inteligencia artificial”.
El formato seguía siendo el mismo: un programa debía ser capaz de chatear con un panel de personas y engañarlas hasta el punto de hacerles creer que era un ser humano. Así fue como una parte de la investigación en inteligencia artificial se obsesionó con los programas conversacionales y derivó en ChatGPT y el resto de chatbots que conocemos hoy.
Así fue también como los chatbots actuales heredaron de sus antecesores su principal característica: estas máquinas nunca persiguieron ser inteligentes, ni siquiera ahora. Es más, nadie en su desarrollo se ha planteado de verdad qué era la inteligencia; lo que siempre persiguieron fue engañarnos, dar la apariencia de pensar, hacernos creer que eran inteligentes.
Desde entonces, eso que hemos dado en llamar “IA” son un conjunto de nuevas maneras de procesar la información impulsadas por un salto en la capacidad de computación y una nueva filosofía de aproximación a la interpretación del lenguaje, que no intenta, ni por un momento, ser inteligente, sino parecer humano. Parecer un humano inteligente. La IA es, como dice Julio Gonzalo en la mejor definición ever, un cuñado estocástico: un artefacto que pretende parecer inteligente por la vía de repetir cosas random que ha leído por ahí en su base de datos.
Hace unos meses escribí sobre por qué no creo que ninguna solución que se base en el lenguaje verbal será nunca capaz de igualar la inteligencia humana.
"…los creadores de la IA toman una parte minúscula, limitada y arquetípica de la conciencia -el lenguaje verbal- y lo confunden con el todo. Ignoran que las palabras son solamente una representación muy limitada de las nociones amplísimas e interconectadas que habitan nuestro cerebro como acordes en un piano con billones de teclas.”
Pero la razón por la que esta IA no será capaz nunca de ser inteligente es que ni siquiera lo intenta. Por esa razón, cuando no entiende algo, en lugar de decirlo, que sería la respuesta “inteligente”, se lo inventa, que es lo que le hace parecer inteligente. Y no alucina en realidad, sino que dice cosas al pedo siempre y descaradamente, porque su cometido no es pensar, sino engañarnos, hacernos creer que piensa.
Así que la respuesta a nuestra primera pregunta es no: esta mal llamada IA no producirá nunca una verdadera inteligencia.
Pero con esto no nos quitamos el miedo del cuerpo. Podría haber otra tecnología a la vuelta de la esquina que sí lo consiguiera. La que es de verdad importante es la segunda pregunta:
¿Podemos los humanos producir una inteligencia artificial que nos sustituya?
La respuesta es que depende de lo que entendamos por “artificial”.
Los humanos, en realidad, siempre hemos creado inteligencias “artificiales”: los animales que cruzamos y entrenamos no existían de manera “natural”. Los perros pastores, las palomas mensajeras y las mulas, por ejemplo, son formas de inteligencia artificial que nos sustituyen en determinadas tareas.
Con la tecnología y el conocimiento que tenemos no sería imposible cruzar chimpancés, o modificarlos genéticamente para que sean cada vez más eficaces sacando minerales de las minas o para que repartan paquetes.
Pero por supuesto que ninguna de estas cosas entraría hoy en día en la definición de inteligencia artificial. Ni tampoco produce ningún miedo civilizatorio, ni hace salivar a ningún empresario, ni a ningún jefe de una banda paramilitar.
Porque los animales, como las personas, tienen necesidades, deseos, enferman, envejecen y necesitan ser cuidados. Más aun, sufren y disfrutan. Y por lo tanto no da igual como los tratemos: tienen valor moral.
Y es que en la construcción “inteligencia artificial” es la palabra “artificial” la que está haciendo todo el trabajo: ocultando lo que de verdad queremos decir, que es otra cosa.
Lo que queremos decir cuando hablamos de inteligencia artificial es “inteligencia inmoral”, en el sentido de una inteligencia que ni tenga valor moral, ni le importe el de los demás. O sea, que le de igual su propia vida y la de los demás, que no tenga apego a su tiempo ni a su experiencia. Que pueda matar, o maltratar, ser asesinada o maltratada, sin sufrir y sin hacer(se) preguntas. Que pueda ser descuidada, desconectada, alterada, violada, esclavizada y a todo el mundo le de igual. Y que como no es incapaz de sentir, obedezca órdenes ciegamente.
¿Puede existir una criatura que sea, a la vez, inteligente y ajena al sufrimiento? Esta es la pregunta que de verdad nos aterra. Porque esa especie, de existir, podría acabar en manos de cualquier desalmado y terminar con todos nosotros, porque le daría igual.
¿Pueden existir?
La realidad es que también existen ya formas de inteligencia artificial que son inmorales: Las bacterias que usamos para fermentar la cerveza, o para producir insulina, aunque no tengan una consciencia como la nuestra, también se pueden entender como formas de inteligencia que hemos domesticado para cumplir una tarea.
También los virus modificados en los laboratorios para fabricar vacunas de ARNm actúan como sistemas biológicos programados: entran en nuestras células y les “enseñan” a producir una proteína concreta. No piensan, pero ejecutan instrucciones con precisión y autonomía, igual que un algoritmo biológico.
Pero si quisiéramos evolucionar esos organismos hasta que se convirtieran en seres sintientes, observaríamos que a medida que se desarrolla su inteligencia irían creando también distintas formas de conciencia basadas en formas primitivas de moralidad como la empatía, la equidad o la cooperación.
Y es que “pensar” es, en esencia, tomar decisiones desde un punto de vista que incorpora un sistema moral y una visión del mundo preexistente. Es hacer un juicio sobre lo que me beneficia o me perjudica, considerar cómo mis actos afectan a otros y cuáles serán sus consecuencias, decidir qué valor tiene cada una de las cosas y los seres con los que me cruzo, quiénes son mis aliados y quiénes mis enemigos, en definitiva, discernir lo que es correcto y lo que es dañino (para uno, o para los demás): la inteligencia es una sucesión de actos morales.
Lo entendemos bien si pensamos en todo este lío de los coches autónomos. Crear un coche que se conduzca solo es mucho más sencillo que una inteligencia generalista, porque las carreteras son un sistema cerrado con un conjunto bien definido y muy pequeño de normas (las de circulación). Un coche solo ha de decidir si frena o acelera, si se para en el semáforo o no, si gira a la izquierda o la derecha. Qué hacer si alguien le adelanta a poca velocidad. Y aun así, los fabricantes siguen atascados en la cantidad de decisiones morales que no se pueden predeterminar: ¿Qué pasa si el coche tiene que elegir entre poner en riesgo al pasajero o a un peatón? ¿Qué pasa si tiene que elegir entre poner en riesgo a dos peatones distintos?.
Mientras hay una norma, “si el semáforo está en rojo, te paras”, una máquina solo necesita seguirla, porque esa norma está haciendo las veces de un sistema moral pre-aprendido. Pero cuando no hay norma, ¿Cómo decide la máquina sin un sistema moral?
Incluso los seres más egoístas, como los tiburones, tienen un programa biológico moral, uno que les dicta que los únicas criaturas importantes son ellos mismos. Algo parecido ocurre con los humanos que tienen un trastorno de la personalidad narcisista.
Esto ocurre porque la conciencia, la esencia de quienes somos, surge de reconocer los efectos del entorno sobre uno mismo y de uno mismo sobre el entorno. Esa autoconciencia evoluciona junto con la inteligencia, de manera que los seres más avanzados somos también los que mejor nos comprendemos a nosotros mismos y nuestras acciones. Sin este mecanismo de retroalimentación, la vida, sencillamente, no podría existir.
Así que a la segunda pregunta, una vez que la reformulamos en los términos correctos, la respuesta también es no: No existirá un ser que pueda pensar al mismo nivel que un humano sin sentir igual que nosotros. No existirá una inteligencia que no vaya acompañada de un sistema moral acorde a su grado de conciencia, porque lo uno y lo otro no son cosas distintas: son parte del mismo proceso.
El aprendizaje que podemos sacar de todo esto es el siguiente: No deberíamos dejarnos despistar ni un momento por estos cantos de sirena interesados de un puñado de vendedores de escobas baratas. Hay muchas tecnologías que hoy están transformando el mundo pero esta, por suerte, no será una de ellas.
Regreso a la newsletter con este post después de unos meses en los que he estado encerrada terminando un libro que ¡por fin! he conseguido entregar con la inestimable ayuda de mi querida
. Saldrá publicado con la editorial Debate en febrero y os iré contando más en estos meses.Este libro ha sido un triathlon intelectual que me ha obligado a refinar muchas ideas, pero también me ha llevado a explorar nuevos territorios. Así que vuelvo con la cabeza llena de ideas para temas nuevos… y ninguno es pequeño :p.
Mi compromiso es publicar, de ahora en adelante, al menos, una vez a la semana. Con suerte, dos. Si se te ocurre algún tema del que te gustaría que escribiera, te agradeceré mucho las sugerencias :-).
¡Gracias a todos y a todas por la paciencia!



