El informe explica cómo la inteligencia artificial general (AGI) pasó de la teoría a la medición empírica. Aplica psicometría humana, propone una vara comparativa con el “adulto educado” y presenta resultados numéricos, brechas técnicas, nuevos benchmarks, modelos del mundo y un panorama geopolítico y ético.
Autor: Claudio Peña
De mito a medición
La AGI deja de ser un horizonte literario y se vuelve cuantificable cuando la IA moderna supera la especialización y adopta herramientas de la psicometría para evaluar su versatilidad. El modelo Cattell-Horn-Carroll (CHC) ofrece un andamiaje para traducir habilidades humanas —razonamiento, memoria, comprensión, velocidad de procesamiento, integración multimodal— a tareas verificables en sistemas artificiales.
La propuesta metodológica compara el rendimiento de un modelo con la media de un adulto educado, lo que desplaza percepciones subjetivas y permite hablar de equivalencia cognitiva con datos. A partir de diez dominios adaptados a IA, surge un índice de generalidad que resume el desempeño transversal.
Según los resultados citados, GPT-4 rondó 27% y GPT-5 llegó a ~57% en 2025, mostrando progreso en razonamiento lógico, visión-lenguaje y manejo de memoria contextual extendida.
No se afirma “AGI completa”, pero sí un avance medible hacia una inteligencia más amplia, ahora expresada en una escala reproducible que facilita auditorías, comparaciones intermodelo y discusión pública informada.

La psicometría ofreció lo que la ingeniería no había logrado hasta entonces: un lenguaje cuantitativo para hablar de inteligencia en múltiples dimensiones. Así, la AGI dejó de ser una cuestión filosófica y comenzó a tratarse como un problema de equivalencia cognitiva medible, abriendo la puerta a comparaciones verificables entre humanos y modelos.
Qué falta y cómo se está midiendo
Las carencias que frenan la AGI plena se agrupan en tres frentes. Primero, la memoria duradera: los modelos aprenden en entrenamiento masivo pero no consolidan experiencias nuevas sin riesgo de olvido catastrófico; módulos externos y RAG mejoran la persistencia, aunque aún de manera parcial.
Segundo, la coherencia cognitiva: los sistemas muestran picos desparejos entre dominios y transferencias limitadas, lejos del “factor g” humano; por eso cobran valor las métricas de consistencia interdominio.
Tercero, la agencia encarnada: falta actuar en entornos con objetivos, retroalimentación y consecuencias, condición crucial para comprender causalidad. La ola de benchmarks cambia entonces el centro de gravedad: de pruebas cerradas como MMLU o GSM8K a evaluaciones multimodales y contextuales (por ejemplo, MMMU o V-Bench) y a escenarios interactivos donde el agente debe planificar, aprender y sostener desempeño.
En paralelo, los “modelos del mundo” devuelven a la IA un laboratorio cognitivo: sistemas como Genie 3 generan entornos 3D con reglas estables para que los agentes exploren, predigan y ajusten su conducta, acercando percepción y acción en ciclos de aprendizaje predictivo.
El gran desafío sigue siendo la transferencia sim2real: llevar estrategias gestadas en simulación a la fricción del mundo físico con adaptación continua.

La elección del adulto educado tiene un propósito metodológico: representa un punto de referencia estable, sin exigir genialidad ni condiciones excepcionales. Así, no se busca que la máquina reproduzca la conciencia humana, sino que iguale su versatilidad cognitiva, entendida como la capacidad de responder adecuadamente a una amplia gama de tareas distintas. En términos prácticos, el modelo se evalúa como si fuera una persona que enfrenta un examen de múltiples áreas del conocimiento, desde matemáticas básicas hasta comprensión lingüística y razonamiento visual.
Poder, ética y el mapa que viene
La AGI reordena la geopolítica tecnológica. Estados Unidos combina liderazgo privado con apoyo estatal y control de semiconductores avanzados; China impulsa autonomía con planificación central, datos domésticos y clusters de cómputo; Europa apuesta por regulación con el AI Act, posicionando estándares de seguridad y transparencia.
Tres insumos se vuelven estratégicos: datos, cómputo e infraestructura energética, con centros de datos y suministro eléctrico como nuevas palancas de poder. Este viraje impulsa una gobernanza más rigurosa: auditorías algorítmicas, evaluación de riesgos dinámicos y plataformas de cumplimiento que documentan decisiones y cambios de modelo.
A la par emergen dilemas morales: responsabilidad trazable frente a acciones de agentes autónomos, límites al sesgo cultural y al poder algorítmico que podría homogeneizar visiones del mundo si el entrenamiento permanece concentrado.
Surgen ideas como ciudadanía algorítmica y derechos digitales ampliados para proteger a las personas y acotar la autonomía operativa de sistemas avanzados. En la industria, la comunicación sobre “modelos de frontera” influye en inversión y regulación, por lo que la evidencia auditable se vuelve requisito de credibilidad.
Mirando 2026-2030, el informe proyecta una inteligencia distribuida: múltiples agentes interconectados, cómputo descentralizado y marcos regulatorios adaptativos, donde la cuestión central no es quién “posee” la AGI sino cómo se coordina, audita y gobierna su interacción con la infraestructura digital del planeta.

La concentración de conocimiento plantea, además, un riesgo estructural. Si los sistemas de AGI quedan bajo control de un pequeño número de actores —ya sean corporaciones o Estados—, se genera una dependencia cognitiva global. Informes recientes de la RAND Corporation y del Center for Security and Emerging Technology advierten que esta situación podría limitar la innovación, fragmentar la colaboración científica e incrementar la desigualdad entre países con y sin acceso a modelos avanzados. La soberanía digital se redefine así como la capacidad de participar en la creación y control del conocimiento, no solo de consumirlo.
Encuentra la versión completa de la publicación en la que se basa este resumen, con todos los detalles técnicos en RedUSERS PREMIUM
También te puede interesar:
IA DESGENERATIVA LOS MODELOS SE CORROMPEN
La IA desgenerativa representa la otra cara de la inteligencia artificial moderna: no la que innova, sino la que se desgasta. Surge de un proceso silencioso en el que los modelos aprenden de sí mismos, pierden variedad, rigor y veracidad, o son alterados por influencias externas. Este Informe USERS analiza cómo, cuándo y por qué los sistemas de inteligencia artificial pueden degradarse, corromper su conocimiento o convertirse en instrumentos de manipulación.

Lee todo lo que quieras, donde vayas, contenidos exclusivos por una mínima cuota mensual. Solo en RedUSERS PREMIUM: SUSCRIBETE!



