En marzo de 2025 la Association for the Advancement of Artificial Intelligence (AAAI) público su 2025 Presidential Panel on the Future of AI Research sobre el futuro de la investigación en inteligencia artificial (IA), elaborado por destacados líderes del campo. En concreto, la sección dedicada a la Inteligencia Artificial General (AGI, por sus siglas en inglés) ha sido escrita por Eric Horvitz (Microsoft) y Stuart Russell (University of California, Berkeley), dos de los referentes mundiales en el área.
En relación con la AGI, la AAAI realizó una encuesta dirigida a investigadores de IA, cuyos resultados reflejan el sentimiento generalizado dentro de la comunidad científica:
El 76% de los encuestados considera “poco probable” o “muy poco probable” que simplemente escalar los enfoques actuales de IA sea suficiente para alcanzar una verdadera AGI.
Este hallazgo refleja una creciente preocupación de que los paradigmas actuales de aprendizaje automático (principalmente basados en arquitecturas transformers y el aprendizaje por refuerzo) podrían no ser adecuados por sí mismos para lograr una inteligencia de nivel humano o general.
A partir de esta premisa, el capítulo explora las principales limitaciones de los sistemas actuales y presenta las direcciones clave de investigación necesarias para avanzar hacia una AGI fiable:
- Arquitecturas más allá de los Transformers. Los modelos basados en transformers presentan limitaciones fundamentales, como ventanas de contexto fijas y falta de memoria explícita. Se propone investigar nuevas arquitecturas o combinaciones híbridas que integren redes neuronales cuya entrada son grafos (en inglés graph neural networks, GNN) , aprendizaje por refuerzo o sistemas de razonamiento simbólico.
- Planificación y razonamiento a largo plazo. Los modelos actuales tienen dificultades con la planificación a largo plazo y el razonamiento jerárquico. Se sugiere utilizar aprendizaje por refuerzo para mejorar estas capacidades, incluyendo la evaluación proactiva de riesgos y costos en cada paso del plan.
- Generalización más allá de los datos de entrenamiento. Aunque los modelos de lenguaje grandes (LLM) muestran habilidades impresionantes, su capacidad para generalizar a problemas completamente nuevos o fuera de su distribución de entrenamiento es limitada. Se destaca la necesidad de aprender representaciones más expresivas, y desarrollar mecanismos eficientes para ello.
- Aprendizaje continuo. A diferencia de los humanos, los LLM no aprenden de manera continua, sino que dependen de fases rígidas de preentrenamiento y ajuste fino. Se propone investigar mecanismos que permitan a los sistemas retener y actualizar conocimientos en tiempo real, promoviendo un aprendizaje continuo y de por vida.
- Memoria y recuperación. Los transformers carecen de una memoria estructurada y persistente similar a la humana. Se están explorando mecanismos de memoria, como la memoria episódica estructurada, para mejorar la capacidad de los modelos para recordar y utilizar experiencias pasadas de manera eficiente.
- Razonamiento causal y contrafactual. Los modelos actuales pueden detectar correlaciones en grandes conjuntos de datos, pero tienen dificultades con la inferencia causal y el razonamiento contrafactual, esenciales para la toma de decisiones robusta y el descubrimiento científico.
- Interacción corporal y con el mundo real. La inteligencia humana se desarrolla a través de interacciones sensoriomotrices ricas con el mundo. Los modelos actuales carecen de una comprensión profunda de la realidad física. Se sugiere entrenar modelos de IA en entornos interactivos ricos (por ejemplo, robótica, mundos virtuales) para construir una comprensión más fundamentada de la realidad.
- Alineación, interpretabilidad y seguridad. Alinear los sistemas de IA con los valores humanos y hacerlos interpretables sigue siendo una preocupación urgente. Los modelos de caja negra a menudo producen resultados difíciles de explicar, lo que plantea problemas de seguridad y confianza. Se requiere investigación en la alineación de valores, especificación de restricciones y políticas que aseguren un funcionamiento seguro.
- Influencia y gobernanza social. A medida que los sistemas de IA se vuelven más capaces, la investigación en seguridad, la gobernanza proactiva y la monitorización de los impactos de la IA en las personas y la sociedad serán cada vez más importantes. Se alienta a la comunidad investigadora de IA a involucrarse desde el principio y mantenerse en contacto con los responsables políticos y líderes de la sociedad civil para ayudar a dar forma a las capacidades y usos de la IA y su gobernanza.
A estos puntos señalados en el informe se añade una dificultad adicional de calado filosófico:
- Limitaciones en la manipulación simbólica. Existe una suposición subyacente de que las redes neuronales no pueden realizar manipulación simbólica, lo que refleja una hipótesis más profunda sobre cómo funciona el razonamiento simbólico en el cerebro humano. Esta área representa una oportunidad importante de investigación para integrar capacidades simbólicas en los sistemas de IA. Mientras estas capacidades no estén integradas difícilmente se podrá llegar a una AGI.
No hay duda de que los sistemas actuales de IA no son conscientes y no comprenden verdaderamente a los humanos. Como hemos visto una gran mayoría de expertos en el área considera que el aprendizaje por refuerzo, así como, simplemente escalar el tamaño de los modelos (con más parámetros o más datos) no conducirá por sí solos a una inteligencia verdaderamente humana o general (AGI).
Más allá de que la AGI no sea un concepto definido formalmente, ni exista una prueba consensuada para determinar su logro, el informe plantea que, para seguir avanzando, se requiere un replanteamiento profundo de las arquitecturas y de los principios de aprendizaje. Es importante tener en cuenta que no podemos saber cuánto nos falta para alcanzar la AGI, ya que desconocemos cuándo se superarán los retos mencionados anteriormente. Tampoco podemos descartar que, en algún momento, alguien afirme haberla alcanzado y que acabemos debatiendo sobre la propia definición de AGI.
