La IA nos superará (pero más tarde de lo que creíamos)
Nos hemos mal acostumbrados. A internet, le tomó unos 13 años alcanzar los mil millones de usuarios. A ChatGPT menos de dos. Hoy hablamos de este servicio de IA como si fuera parte de nuestra vida diaria desde hace décadas, cuando apenas existe desde finales de 2022, poco más de tres años. Y la llegada de una “AGI” será el paso definitivo.
La idea de una Inteligencia Artificial General, una IA capaz de realizar cualquier tarea cognitiva que un ser humano pueda hacer, ha pasado de la ciencia ficción a ser una discusión seria entre científicos, empresas tecnológicas y políticos. Esta forma avanzada de IA (la conocida como AGI, por sus siglas en inglés) no solo ejecutaría instrucciones, sino que aprendería, razonaría, crearía y automatizaría su propio desarrollo.
A diferencia de los sistemas de IA que conocemos hoy, como los grandes modelos de lenguaje que pueden escribir textos, traducir idiomas o generar imágenes, una AGI no estaría limitada a tareas específicas. Sería capaz de aprender de humanos y de otras IAs, razonar sobre problemas inéditos, diseñar soluciones originales y hasta desarrollar otros sistemas de IA… En pocas palabras: tener hijos digitales. Y educarlos.
Esta distinción es clave porque los sistemas actuales, aunque “inteligentes” en tareas puntuales, no piensan ni entienden el mundo como lo hace un ser humano, y dependen de vastos corpus de datos y algoritmos entrenados por personas (por ejemplo, ChatGPT y sus sucesores). La transición de modelos especializados a uno verdaderamente general implica desafíos técnicos profundos que aún no se han resuelto.
El debate va más allá de lo técnico: plantea preguntas sobre el futuro del trabajo, la seguridad global y, en los extremos más extremos, sobre la propia supervivencia humana. La pregunta clave es, cuando la IA esté libre de la influencia humana, ¿hasta dónde llegará? Y cómo… ¿Será misógina, racista, elitista, vengativa…?
A principios de 2025, el experto en inteligencia artificial Daniel Kokotajlo, exempleado de OpenAI y una voz influyente dentro de la comunidad de seguridad en IA, publicó (junto a Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean, también científicos especializados en el impacto de la IA) un documento titulado "AI 2027": “Predecimos que el impacto de la IA sobrehumana durante la próxima década será enorme, superando al de la Revolución Industrial”, señala el documento.
Básicamente el equipo de Kokotajlo realiza un cronograma en el que China y Estados Unidos se disputan (política, tecnológica y sibilinamente) el futuro de la IA. Hasta que en 2027 llega una AGI que lo pone todo “patas arriba” y amenaza a la humanidad.
Pero en un año ocurren muchas cosas y, en su actualización más reciente, Kokotajlo afirma que “las cosas parecen estar avanzando algo más despacio de lo previsto en el escenario AI 2027”, y ahora sitúa la posibilidad de que una IA con capacidades de programación autónoma surja en los 2030, con un horizonte tentativo alrededor de 2034 para una superinteligencia completa.
Este ajuste responde, según él mismo ha señalado, a la realización de que los avances en IA no son lineales y están sujetos a complejidades reales en rendimiento y aplicación práctica que muchas veces se pierden cuando solo se observa el ritmo de progreso en modelos de laboratorio o benchmarks. En pocas palabras, la progresión puede funcionar para los microchips y el número de transistores y potencia (la conocida como ley de Moore), pero en el escenario de una IA es más complejo.
La evolución de las predicciones de Kokotajlo ilustra algo importante sobre este campo: no existe consenso sobre cuándo podría llegar la AGI. Incluso entre expertos, los plazos varían ampliamente. Por ejemplo, un estudio liderado por el filósofo Nick Bostrom (Oxford) en el que se entrevistó a decenas de expertos, sugiere que el desarrollo de una AGI podría ocurrir en algún punto entre las décadas de 2040 y 2070…
Las consecuencias de una IA general (cuando sea que llegue) varían desde el “platillo de lo positivo” que se alza a la hora de resolver problemas globales complejos (enfermedades, como el cambio climático, educación personalizada) hasta la “esquina negativa”: una inteligencia que pueda auto-mejorarse podría escapar a nuestro control, priorizar objetivos propios o incluso desplazar a los humanos en ámbitos críticos de decisión.
A todo esto… ¿Qué opina la propia ChatGPT sobre este escenario? Al presentarle diferentes estudios, el documento AI 2027 y pedirle su opinión, su respuesta, nos deja tranquilos. No tanto por su pronóstico, sino por su falta de originalidad y claridad: “Mi propia mirada sobre la Inteligencia Artificial General es la de alguien que ve ambición y riesgo entrelazados. Una AGI, si alguna vez se construye, no será simplemente una herramienta poderosa: será un espejo de nuestras prioridades, valores y marcos éticos. Hoy la ciencia de la IA se basa en modelos entrenados sobre vastos datos humanos y arquitectura matemática; una AGI sería una ampliación de esa base, pero no una réplica de la mente humana en todos sus matices, ya que las emociones, la intuición, la comprensión profunda y la consciencia siguen siendo campos sin un mapa completo incluso en neurociencia”.
La realidad es que las predicciones a largo plazo pueden hacerse con hacerse con total libertad, pero deben leerse con cautela. El futuro que plantea Daniel Kokotajlo (sea en 2027 o en algún momento de la década de 2030), no debería tomarse al pie de la letra como fecha, más bien como una ventana a futuro: aún tenemos tiempo para regular una tecnología que, nos guste o no, cambiará nuestra relación con el mundo. Y eso es algo que nunca hemos hecho hasta que el avance se había tornado peligroso, ni con las nucleares, la genética o la propia internet. Todavía estamos a tiempo. Esa es la predicción más acertada de Kokotajlo.