
IA: ¿Está condenada al fracaso la apuesta de Sam Altman?
El pasado 7 de agosto Open AI lanzó su último modelo de IS GPT- 5. Muchos esperaban un momento decisivo para la empresa dirigida por Sam Altman, pero también para el desarrollo de la inteligencia artificial general. ¿Qué pasó realmente?
Se suponía que iba a ser el anuncio que consolidaría el dominio de OpenAI. Tras meses de rumores, GPT-5 por fin estaba aquí. Antes del lanzamiento de la transmisión en directo, Sam Altman publicó una captura de pantalla de la película Rogue One, de la saga Star Wars, en la que se ve la Estrella de la Muerte perfilándose en el horizonte.
Las expectativas no hicieron más que crecer. Nada más comenzar la retransmisión en directo, Sam Altman, fiel a sí mismo, declaró: «Creemos que GPT-5 les gustará mucho más que cualquier otra IA anterior. Es útil, inteligente, rápido e intuitivo. GPT-3 era un poco como hablar con un estudiante de secundaria: destellos de genialidad, pero también mucha irritación. GPT-4 era más como hablar con un estudiante universitario… Con GPT-5, ahora es como hablar con un verdadero experto, un experto con un doctorado en cualquier campo, capaz de ayudarte a alcanzar tus objetivos».
Según Gary Marcus, a pesar de su adopción masiva y de la colosal financiación, la IA diseñada por el director ejecutivo de OpenAI podría encontrarse en un punto muerto fundamental.
Pero la realidad se ha impuesto a la puesta en escena.
Las reacciones han estado dominadas por las críticas. No se trata de unos pocos errores aislados: al igual que las versiones anteriores, GPT-5 comete errores absurdos, alucina y registra un rendimiento mediocre en algunos puntos de referencia. Se ha considerado confuso un nuevo mecanismo de «enrutamiento» automático. El efecto fue aún más marcado debido a las altas expectativas: mientras que GPT-4 supuso un salto cualitativo con respecto a GPT-3, GPT-5 ha resultado ser una gran decepción.
No es un mal modelo, pero tampoco es la revolución anunciada. Muchos esperaban que GPT-5 fuera una IA general, o al menos se acercara a ella. El resultado: un choque con la realidad.
EGC. ¿Qué implicaciones tiene esto para OpenAI?
Gary Marcus. OpenAI ya no tiene una ventaja técnica real, y es probable que GPT-5 no siga siendo el modelo más eficaz durante mucho tiempo. Varios de sus mejores talentos han abandonado la empresa, a menudo para fundar empresas competidoras, mientras que actores como Elon Musk, Anthropic o Google avanzan rápidamente. Las relaciones con Microsoft se han vuelto más tensas y la empresa, lejos de ser rentable, se ha visto obligada a bajar sus precios.
P. OpenAI sigue teniendo un nombre conocido y una interfaz de usuario apreciada, pero ¿será eso suficiente para mantener una valoración de varios cientos de miles de millones de dólares?
R. Lógicamente, la reputación de Sam Altman debería verse seriamente empañada. Sus declaraciones anteriores, en las que afirmaba saber cómo construir la IAG o comparaba GPT-5 con un experto de nivel de doctorado universal, parecen ahora promesas insostenibles. El contraste entre estos anuncios y las capacidades reales del producto explica en gran medida la magnitud de la decepción.
P. ¿Dónde nos deja esto en relación con la IA general?
R. Un estudio de la Universidad Estatal de Arizona, publicado el 5 de agosto, lo acaba de confirmar, validando así lo quellevo repitiendo desde hace casi treinta años y, más recientemente, lo que Apple expuso en un artículo en junio. Ya en 1998, demostré que los perceptrones multicapa (multilayer perceptrons), los antecesores de los modelos de lenguaje actuales, no eran capaces de aplicar de forma fiable universales lingüísticos o lógicos fuera del campo de los ejemplos aprendidos. Los autores de este estudio muestran que esta limitación persiste hoy en día, a pesar de todas las innovaciones introducidas desde entonces.
Es precisamente esta incapacidad para generalizar lo que explica por qué todos los intentos de crear un modelo de nivel GPT-5, ya sean de OpenAI o de otros, están condenados al fracaso. No se trata de un accidente, sino de una limitación de principio. En otras palabras, mientras no se supere esta debilidad estructural, el rendimiento seguirá estancado, independientemente de los recursos que se inviertan.
P.¿Este punto muerto marca el fin del enfoque actual?
R. Después de invertir más de 500.000 millones de dólares en esta dirección, la conclusión es clara: las limitaciones cualitativas observadas en GPT-3 o GPT-4 —alucinaciones persistentes, errores de razonamiento, debilidades en la visión, dificultades para realizar tareas sencillas como contar correctamente— se repiten en GPT-5, a pesar de las ganancias marginales y el menor costo. La famosa fórmula según la cual «la atención es todo lo que se necesita» resulta, por tanto, engañosa. El único camino realista hacia una IAG pasa por enfoques neurosimbólicos que integren modelos explícitos del mundo, capaces de razonar sobre representaciones duraderas, abstractas o simbólicas. Mientras no dispongamos de este tipo de sistemas, no podremos cruzar el umbral cualitativo que aún nos separa de la IAG.