Inteligencia Artificial General: ¿ciencia real o ciencia ficción?

La Inteligencia Artificial General (AGI) ha pasado de ser un tema de debate académico y filosófico a aparecer en medios de actualidad. Pero ¿por qué se habla tanto ahora de AGI? ¿Estamos cercanos a alcanzarla? ¿O se están confundiendo los grandes avances en IA con una súper inteligencia que todavía queda muy lejos?
El concepto de AGI se refiere a un tipo de inteligencia artificial capaz de aprender y realizar cualquier tipo de tarea cognitiva independientemente del contexto y el entrenamiento, al igual que hace un ser humano. Sin embargo, la IA que se está desarrollando ahora mismo se denomina IA estrecha o narrow AI y en gran medida, es capaz de realizar tareas muy concretas para las que ha sido específicamente entrenada. Por ejemplo, si se entrena una IA actual con la tarea de superar el primer nivel del videojuego Super Mario en el menor tiempo posible, no sería capaz de transferir estos conocimientos a un videojuego de Donkey Kong, pese a ser dos videojuegos del género de plataformas.
La atención mediática reciente se debe en gran parte al impacto de modelos de IA generativa como ChatGPT, Gemini o Claude, en tareas lingüísticas, razonamiento lógico y generación de contenido. La fluidez con la que estos modelos dialogan, redactan textos o resuelven problemas ha llevado a algunos a proclamarlos como pasos previos, o incluso equivalentes, a la AGI.
Es fácil entender este entusiasmo si pensamos en cómo la cultura popular nos ha preparado para este momento. Desde HAL 9000 en 2001: Una odisea del espacio hasta GLaDOS en Portal o los replicantes de Blade Runner, la ficción ha jugado con la idea de inteligencias artificiales capaces de razonar, sentir o incluso rebelarse. Cada vez que un chatbot responde con asombrosa coherencia o una IA genera una imagen hiperrealista, parece que nos estamos acercando un poco más a esos futuros imaginados.
Imitadores excepcionales
Sin embargo, los modelos actuales, por muy sofisticados que sean, están basados en técnicas de aprendizaje sustentadas en estadística que reconocen patrones y relaciones en grandes cantidades de datos. Estos modelos no son capaces de comprender ni mucho menos cuentan con conciencia propia.
La apariencia de inteligencia que nos muestran es una ilusión generada por una serie de correlaciones a gran escala, no el resultado de una comprensión profunda del mundo. Vemos un sistema que responde con coherencia y fluidez y asumimos que “entiende”. Pero los modelos actuales carecen de intencionalidad, razonamiento causal y representación semántica del conocimiento. Son imitadores excepcionales, no pensadores autónomos.
La Inteligencia Artificial General (AGI) ha pasado de ser un tema de debate académico y filosófico a aparecer en medios de actualidad. Pero ¿por qué se habla tanto ahora de AGI? ¿Estamos cercanos a alcanzarla?
Un ejemplo claro de esta carencia de inteligencia son las alucinaciones que presentan afirmaciones falsas que expresan con total convicción y que se contradicen con facilidad. Un sistema verdaderamente inteligente sabría reconocer una inconsistencia o al menos expresar incertidumbre. La AGI, en teoría, no solo tendría acceso a una base de conocimiento, sino la capacidad de razonar sobre ella, cuestionarla y adaptarla a nuevas situaciones. No basta con parecer inteligente; hay que serlo de forma funcional y adaptativa.
En Ex Machina, la androide Ava no solo mantiene conversaciones complejas, sino que también manipula emocionalmente a los humanos que la rodean, mostrando comprensión contextual y capacidad de anticipación. Es justo ese tipo de conciencia situacional lo que aún está completamente fuera del alcance de los sistemas actuales. En cualquier caso, aunque son representaciones de ficción, estas narrativas influyen en la percepción que puede tener el público general de la AGI.
Límites para llegar a la AGI
¿Qué límites nos separan de la AGI? Actualmente, ni siquiera somos capaces de entender el funcionamiento del cerebro, lo que hace que replicar este funcionamiento en una máquina sea bastante complejo
Los modelos de inteligencia artificial actuales presentan limitaciones significativas frente al aprendizaje humano: no son capaces de transferir conocimientos entre contextos como lo haría un niño al aprender un nuevo concepto, carecen de una memoria persistente que les permita construir una identidad o una visión coherente del mundo, se basan en correlaciones estadísticas sin comprender relaciones causales, lo que dificulta su capacidad de planificación y predicción, y necesitan enormes cantidades de datos para aprender, a diferencia de los humanos, que pueden hacerlo con pocos ejemplos.
Además de todos estos factores, existen límites filosóficos, ¿qué se entiende exactamente por inteligencia artificial general? ¿la AGI se basa en replicar el cerebro humano o en crear una alternativa funcionalmente equivalente? ¿La AGI debe tener conciencia de sí misma, emociones o valores?
La carrera hacia la AGI no solo es científica y técnica, sino también empresarial y geopolítica. Empresas como OpenAI, DeepMind o Anthropic han declarado abiertamente su misión de alcanzar la AGI, lo que ha generado debates sobre riesgos existenciales, gobernanza y monopolización del conocimiento. Algunos expertos, como Yoshua Bengio o Max Tegmark, han expresado preocupación sobre una posible falta de control y regulación en este campo.
En paralelo, la comunidad científica se ha mostrado más escéptica, señalando que los modelos actuales carecen de los principios fundamentales de una mente. Hay quienes abogan por enfoques híbridos, que integren redes neuronales con estructuras simbólicas, aprendizaje evolutivo o teoría de la mente artificial.
La responsabilidad del ecosistema científico y tecnológico es doble: por un lado, avanzar en el conocimiento de forma rigurosa, ética y abierta. Por otro, evitar alimentar narrativas sensacionalistas que prometen inteligencias súper humanas inminentes, cuando la realidad es mucho más compleja.
Es urgente establecer marcos interdisciplinarios donde filósofos, psicólogos, neurocientíficos, ingenieros y sociólogos colaboren para definir qué significa realmente la AGI, cómo reconocerla y cómo diseñarla de forma segura. También es crucial implicar a la sociedad civil en este debate y educar de manera que tengan claro que los modelos actuales quedan muy lejos de una súper inteligencia. La AGI no es solo un reto técnico, sino una cuestión que afectará a modelos laborales, educativos, políticos y sociales.
Como conclusión, nos encontramos con más preguntas que respuestas. ¿Estamos cerca de la AGI? La respuesta honesta es: no lo sabemos. Hemos construido herramientas poderosas que nos impresionan, pero todavía muy lejos de capturar la adaptabilidad y profundidad de la inteligencia humana. Confundir lo que parece inteligente con lo que es inteligente puede llevarnos a decisiones erróneas.
Es legítimo soñar con una AGI que nos ayude a resolver los grandes desafíos del mundo, pero también es necesario mantener una mirada crítica y realista sobre el estado actual de la tecnología, sus límites y los intereses que la impulsan.
Autor: Sandra Garrido, Coordinadora área de tecnología en UDIT, Universidad de Diseño, Innovación y Tecnología
Powered by WPeMatico