Cómo acertó ChatGPT quien iba a ser el nuevo Papa

El pasado 9 de mayo, Javier Salas publicó en El País un artículo que describe de manera clara y precisa cómo funcionan los modelos de lenguaje, tomando como ejemplo una reciente anécdota en la que ChatGPT predecía quien iba a ser el próximo Papa en un programa en directo.

A continuación, destaco los puntos clave que considero más relevantes:

  1. Los modelos de lenguaje no adivinan ni profetizan; simplemente generan respuestas basadas en patrones previos de texto.
  2. El acierto de ChatGPT se debe a una combinación de factores:
    1. cómo se formuló la pregunta,
    2. qué datos recientes tenía el modelo,
    3. y su diseño probabilístico.
  3. Cambiar la formulación de la pregunta o, simplemente, por azar, puede dar como resultado una respuesta distinta. De hecho, distintas personas podrían obtener diferentes «predicciones».
  4. Este episodio pone de manifiesto una tendencia preocupante: estamos atribuyendo a la inteligencia artificial capacidades «mágicas» que no posee. Pasamos de la «antropomorfización» a la «sacralización».

Ahora bien, creo que es importante matizar que el «acierto» en este caso no fue simplemente una predicción lanzada al azar. Prevost estaba entre los favoritos en las «quinielas», y ChatGPT recopiló esa información de internet para sintetizar una respuesta. Es decir, el modelo no lanzó una «predicción» sin base, sino que su respuesta se fundamentó en las predicciones y análisis previos.

Esto nos deja con una lección clave:

Los modelos de lenguaje, como ChatGPT, son herramientas extraordinarias para recuperar, agregar y sintetizar información. Esta capacidad, que antes parecía un sueño, está ahora al alcance de cualquiera por unos pocos euros o, incluso, gratis. En una sociedad y economía cada vez más centrada en la información, esta funcionalidad tiene un valor sin igual.

Lo que observo en los medios y en el debate público es que se cometen dos «pecados» simultáneamente. Por un lado, las posibilidades de la IA generativa (y esto también aplica a la IA en general) son sistemáticamente sobrevaloradas. Este fenómeno es claro en el artículo de Javier Salas, donde se evidencian las expectativas de que los modelos de lenguaje, como ChatGPT, puedan «predecir» el futuro o realizar tareas con una precisión casi mágica, cuando en realidad funcionan basados en patrones previos de información. Por otro lado, también se las infravalora de manera sistemática. Frente a quienes atribuyen propiedades «mágicas» a la IA, están aquellos que minimizan el impacto económico y social que tecnologías como ChatGPT pueden generar.

Mi consejo es que seamos cautos con los cambios que estamos viviendo. Aunque, a menudo, no sean tan espectaculares como se nos prometió, sí están teniendo un impacto real.