Gracias, María. Me parece interesante la idea sobre la imagen mesiánica que se construye de la IA, pero creo que tiras demasiado del hilo de ese prompt. Aunque una parte de ese prompt no parece "ejecutable" por el chatbot, como dices, entiendo que sí contiene una serie de instrucciones concretas que sí podrían ser útiles para intentar modificar el comportamiento general de esa interfaz lingüística con la que interactuamos al usarlo (utilizado como system prompt, como dice David). Por otra parte, tampoco descartaría que ese prompt en particular tenga más de ejercicio retórico y literario digital que de prompt real. Con los humanos, a veces, también es difícil distinguir lo real de las alucinaciones, sean fingidas o no.
De todas formas, conectando también con tu artículo anterior y que enlazas aquí, y en respuesta a esa cierta tendencia al blanco y negro sobre la IA (o es un dios o es un trampantojo demoniaco) y a su comparación con otras cosas (otras tecnologías y ciencias, o la inalcanzable naturaleza humana), el lenguaje humano, del que estas IA (los LLM) hacen un sofisticado refrito, tampoco es un lenguaje formalizado como el de las matemáticas, y aun así nos resulta muy útil desde el punto de vista cognitivo y en muchos aspectos instrumentales (al igual que la medicina, por ejemplo, de la que también hablabas en tu anterior artículo, que tampoco está "formalizada" ni se construye exclusiva ni principalmente sobre verdades matemáticas, y aun así nos hace un gran apaño —y, de hecho, también se empieza a aprovechar de la IA y superar sus debilidades con el mismo método de trabajo con el que ha venido venciendo al azar y la imprevisibilidad en la naturaleza biológica y cognitiva humana: el razonamiento crítico y la creación de marcos de trabajo con límites y referencias válidas—). La IA (los LLM, en particular) en algunos aspectos es una extensión de esa capacidad humana a veces tan neblinosa y engañosa, con importantes limitaciones y carencias adicionales pero también con algunas ventajas, como, por ejemplo, un acceso a conocimiento enciclopédico y un dominio de registros lingüísticos y discursivos mucho más amplio que el de muchas personas (por no hablar de otras habilidades técnicas más específicas). "Solo" haría falta acercarse a ella con el mismo rigor crítico y metodológico con el que un (buen) médico se enfrenta a diario al caos de su entorno y los seres humanos a los que atiende (entrecomillo el "solo" porque, evidentemente, abarca una cosa muy grande).
Claro, si yo creo que los LLMs son muy útiles. Y los uso a diario!! Es un gran avance haber encontrado una manera de trabajar con los lenguajes naturales y, fijate, aunque solo sirviera para traducir, sería un avance inmenso!
A mí también me sirven para más cosas: para encontrar ideas, principalmente, y últimamente también para hacer explotación de datos con R.
Mi mayor 'enfado', que no es con la tecnología ni mucho menos, sino con la deriva de OpenAI y Anthropic y lo que les rodea es que usan el miedo como herramienta de marketing. Por eso anuncian todo el rato cosas que saben que no van a ocurrir, como que haya una AGI o ejércitos de robots o, como decía El Pais la semana pasada, "que nos mate a todos".
Creo que el miedo ha sido siempre nuestro peor enemigo. Todas las atrocidades de la historia se han cometido por poblaciones asustadas. Y fomentarlo me parece un crimen.
En defensa de Marc, yo diría que se refiere a lo que normalmente en muchos LLM se suele usar como configuración para el "System". En el cliente de ChatGPT se puede añadir en Configuración>Preferencias. No es el prompt (no está pidiendo nada en realidad) de usuario sino de system (rol).
No entro en si es más o menos útil, pero la verdad es que algunos LLMs suelen usar esta información para definir comportamiento general, tono, estilo... Ignoro el efecto real sobre la respuesta.
La cosa es que lo que le está pidiendo al LLM en el prompt se fija dentro del propio modelo en el "post-training". En esa fase se ajustan los parámetros para definir eso que percibimos como la "personalidad" de ese software concreto: si se enrolla mucho o poco, si tiende a darle la razón al usuario, si nos recuerda los problemas morales de lo que estamos preguntando, etc.
Esto es así por una razón: No existe una forma concreta de ser "un experto en todos los ámbitos", eso no es una instrucción que una máquina pueda codificar para producir un resultado cierto. Por lo tanto, solo puedes "enseñar" al modelo a contestar de una forma determinada modificando sus parámetros.
Las instrucciones concretas "empieza con un contraargumento", "no alabes mis preguntas" funcionarán (quizá). Pero las ideas vaporosas o que exceden los límites del sistema -- "no alucines"-- no.
Pero, vamos, que eso era lo de menos. Me llamó la atención todas las cosas que le pedimos a esta tecnología :D
Supongo que nos gusta pensar que puede hacernos más caso del que nos hace. Puede que el system sea más un placebo que algo que funcione tal como nos gustaría. Aunque no funcione bien, debe estar para que el usuario piense que puede hacer que vaya mejor.
Gracias, María. Me parece interesante la idea sobre la imagen mesiánica que se construye de la IA, pero creo que tiras demasiado del hilo de ese prompt. Aunque una parte de ese prompt no parece "ejecutable" por el chatbot, como dices, entiendo que sí contiene una serie de instrucciones concretas que sí podrían ser útiles para intentar modificar el comportamiento general de esa interfaz lingüística con la que interactuamos al usarlo (utilizado como system prompt, como dice David). Por otra parte, tampoco descartaría que ese prompt en particular tenga más de ejercicio retórico y literario digital que de prompt real. Con los humanos, a veces, también es difícil distinguir lo real de las alucinaciones, sean fingidas o no.
De todas formas, conectando también con tu artículo anterior y que enlazas aquí, y en respuesta a esa cierta tendencia al blanco y negro sobre la IA (o es un dios o es un trampantojo demoniaco) y a su comparación con otras cosas (otras tecnologías y ciencias, o la inalcanzable naturaleza humana), el lenguaje humano, del que estas IA (los LLM) hacen un sofisticado refrito, tampoco es un lenguaje formalizado como el de las matemáticas, y aun así nos resulta muy útil desde el punto de vista cognitivo y en muchos aspectos instrumentales (al igual que la medicina, por ejemplo, de la que también hablabas en tu anterior artículo, que tampoco está "formalizada" ni se construye exclusiva ni principalmente sobre verdades matemáticas, y aun así nos hace un gran apaño —y, de hecho, también se empieza a aprovechar de la IA y superar sus debilidades con el mismo método de trabajo con el que ha venido venciendo al azar y la imprevisibilidad en la naturaleza biológica y cognitiva humana: el razonamiento crítico y la creación de marcos de trabajo con límites y referencias válidas—). La IA (los LLM, en particular) en algunos aspectos es una extensión de esa capacidad humana a veces tan neblinosa y engañosa, con importantes limitaciones y carencias adicionales pero también con algunas ventajas, como, por ejemplo, un acceso a conocimiento enciclopédico y un dominio de registros lingüísticos y discursivos mucho más amplio que el de muchas personas (por no hablar de otras habilidades técnicas más específicas). "Solo" haría falta acercarse a ella con el mismo rigor crítico y metodológico con el que un (buen) médico se enfrenta a diario al caos de su entorno y los seres humanos a los que atiende (entrecomillo el "solo" porque, evidentemente, abarca una cosa muy grande).
Y, ya que estamos hablando de la naturaleza de la IA (y por extensión, o contraposición, de la de los humanos y otros seres vivos con sistema nervioso), acabo de ver esto en The Guardian: https://www.theguardian.com/technology/2026/may/05/richard-dawkins-ai-consciousness-anthropic-claude-openai-chatgpt
En fin, que que esta feria de los espejos entre estos entes artificiales y los seres vivos de toda la vida no ha hecho más que empezar.
Claro, si yo creo que los LLMs son muy útiles. Y los uso a diario!! Es un gran avance haber encontrado una manera de trabajar con los lenguajes naturales y, fijate, aunque solo sirviera para traducir, sería un avance inmenso!
A mí también me sirven para más cosas: para encontrar ideas, principalmente, y últimamente también para hacer explotación de datos con R.
Mi mayor 'enfado', que no es con la tecnología ni mucho menos, sino con la deriva de OpenAI y Anthropic y lo que les rodea es que usan el miedo como herramienta de marketing. Por eso anuncian todo el rato cosas que saben que no van a ocurrir, como que haya una AGI o ejércitos de robots o, como decía El Pais la semana pasada, "que nos mate a todos".
Creo que el miedo ha sido siempre nuestro peor enemigo. Todas las atrocidades de la historia se han cometido por poblaciones asustadas. Y fomentarlo me parece un crimen.
En defensa de Marc, yo diría que se refiere a lo que normalmente en muchos LLM se suele usar como configuración para el "System". En el cliente de ChatGPT se puede añadir en Configuración>Preferencias. No es el prompt (no está pidiendo nada en realidad) de usuario sino de system (rol).
No entro en si es más o menos útil, pero la verdad es que algunos LLMs suelen usar esta información para definir comportamiento general, tono, estilo... Ignoro el efecto real sobre la respuesta.
La cosa es que lo que le está pidiendo al LLM en el prompt se fija dentro del propio modelo en el "post-training". En esa fase se ajustan los parámetros para definir eso que percibimos como la "personalidad" de ese software concreto: si se enrolla mucho o poco, si tiende a darle la razón al usuario, si nos recuerda los problemas morales de lo que estamos preguntando, etc.
Esto es así por una razón: No existe una forma concreta de ser "un experto en todos los ámbitos", eso no es una instrucción que una máquina pueda codificar para producir un resultado cierto. Por lo tanto, solo puedes "enseñar" al modelo a contestar de una forma determinada modificando sus parámetros.
Las instrucciones concretas "empieza con un contraargumento", "no alabes mis preguntas" funcionarán (quizá). Pero las ideas vaporosas o que exceden los límites del sistema -- "no alucines"-- no.
Pero, vamos, que eso era lo de menos. Me llamó la atención todas las cosas que le pedimos a esta tecnología :D
Está claro que "no alucines" no funciona XD.
Supongo que nos gusta pensar que puede hacernos más caso del que nos hace. Puede que el system sea más un placebo que algo que funcione tal como nos gustaría. Aunque no funcione bien, debe estar para que el usuario piense que puede hacer que vaya mejor.