La idea de que la IA está a punto de superar al ser humano, en entredicho

Alistair Barr | Business Insider
0
120
inteligencia artificial IA generador código

“Nunca confundas una vista despejada con una distancia corta”.

Hace poco le preguntaban al CEO de OpenAI, Sam Altman, qué esperaba para el año 2025.

“¿AGI? Sí, estoy entusiasmado”, señalaba en una entrevista en vídeo que ha sido publicada en YouTube.

La inteligencia artificial general (AGI, por sus siglas en inglés), representa un concepto teórico en el que se espera que —en un futuro— los sistemas informáticos autónomos superen a los seres humanos en la mayoría de los trabajos que desempeñan a día de hoy (y que aportan valor desde un punto de vista económico). El auge de la inteligencia artificial generativa ha llevado a los líderes tecnológicos a realizar atrevidas predicciones que van desde que esto ocurrirá en 2025, 2026 o quizá 2027.

En cambio, últimamente han aparecido una serie de noticias y han tenido lugar una serie de acontecimientos que han hecho que estas predicciones parezcan, en el mejor de los casos, desacertadas.

“Siempre fue una exageración. Ahora ha quedado claro”, explica Oren Etzioni, profesor de Informática que dirigió el Allen Institute for AI durante casi una década y ahora colabora en la dirección de una incubadora de inteligencia artificial con sede en Seattle (Estados Unidos).

Miles de millones de euros dependen de este tipo de predicciones. Las empresas tecnológicas y otro tipo de compañías se están gastando grandes cantidades de dinero en profesionales, hardware y software de IA, dando por sentado que esta tecnología va a seguir mejorando.

“La AGI es importante. Es importante que la gente entienda qué es realista y qué es exagerado”, ha indicado Etzioni. “Mi frase favorita sobre este tema es: nunca confundas una vista despejada con una distancia corta”.

Los últimos atisbos de duda

La hipótesis central que sustenta la exageración y la esperanza que rodea a la industria de la inteligencia artificial es la siguiente: cuando se añaden más datos, potencia de cálculo y tiempo de entrenamiento, se desarrollan mejores modelos de IA a un ritmo constante y predecible.

Esa sería la razón principal de que se hayan producido los enormes avances que se han dado en los últimos años en el rendimiento de los modelos de inteligencia artificial. Es lo que ha hecho que ChatGPT sea una herramienta tan inteligente y tan funcional.

Aun así, recientemente ha habido múltiples signos de que este método podría haberse ralentizado. A pesar de que cada vez se utilizan más datos y más potencia de cálculo, es posible que este sistema no funcione tan bien. Y para muestra, un botón:

  • El cofundador de OpenAI, Ilya Sutskever, declaraba en entrevista para Reuters que los resultados de este tipo de modelos de IA se han estancado.
  • “En algún momento, el paradigma del escalado se rompe”, apuntaba Noam Brown, investigador de la desarrolladora de ChatGPT, en una conferencia reciente.
  • Algunos empleados de OpenAI sugerían de forma anónima a The Information que la startup está teniendo problemas por mejorar significativamente su próximo modelo de inteligencia artificial, Orion. El aumento de la calidad del mismo habría sido mucho menor en comparación con el salto entre GPT-3 y GPT-4, los dos últimos modelos insignia de la organización dirigida por Altman.
  • La nueva iteración de Gemini, el modelo de IA de Google, tampoco estaría cumpliendo con las expectativas internas de la tecnológica, según informaba hace poco Bloomberg. Google no ha logrado el aumento de rendimiento que algunos directivos esperaban después de dedicar mayores cantidades de potencia informática y de datos de entrenamiento al proyecto, tal y como recogía The Information esta semana.
  • Un portavoz de la firma de Mountain View argumentaba a Bloomberg que Google se está replanteando su enfoque con relación a los datos de entrenamiento.

La opinión de Marc y Ben

Los inversores de capital riesgo Marc Andreessen y Ben Horowitz han hablado de este fenómeno en un pódcast reciente. Ambos inversores no se han posicionado como luditas. Por el contrario, y, a pesar de que suelen hacer sus propias predicciones audaces, se han mostrado optimistas con respecto a la tecnología.

Eso sí, esta vez el capital riesgo ha puesto en duda la capacidad de las empresas de inteligencia artificial para seguir mejorando sus modelos al mismo ritmo que lo han hecho en los últimos años.

“En cierto modo, están tocando el mismo techo en cuanto a capacidades”, ha afirmado Andreessen. “Hay mucha gente inteligente en el sector que trabaja para superar esos límites pero, si nos fijamos en los datos y en los gráficos de rendimiento a lo largo del tiempo, podemos asegurar que se está produciendo al menos una reducción local de las capacidades”.

Horowitz ha señalado varios factores que podrían estar frenando las mejoras de los modelos de IA, como la falta de nuevos datos de alta calidad —generados por seres humanos— o los problemas para obtener la energía adicional necesaria para alimentar los centros de datos de inteligencia artificial.

“Una vez que tengamos los chips, no tendremos suficiente energía. Y, una vez que tengamos la energía, no vamos a tener suficiente refrigeración”, ha expresado. “Realmente nos hemos ralentizado en cuanto a la cantidad de mejoras. Y lo que hay que señalar al respecto es que el aumento de GPU ha sido comparable, así que estamos aumentando las GPU al mismo ritmo, pero no estamos consiguiendo las mejoras de inteligencia en absoluto”.

Las preguntas sobre la AGI

Si el principal método probado para mejorar los modelos de IA ya no funciona, es poco probable que se consiga desarrollar la inteligencia artificial general más pronto que tarde.

Business Insider le ha preguntado a OpenAI y a Google por todo esto, pero no ha obtenido respuesta. Otra de las principales compañías de IA, Anthropic, ha remitido a este medio de comunicación un comunicado en el que defienden que no han visto “ningún signo de desviación de las leyes de escalado”.

El jueves pasado, Altman tuiteó: “No existe ningún muro”, en una referencia más que probable a este aluvión de señales que dan a entender que las mejoras de los modelos de inteligencia artificial se están ralentizando.

Podría existir otra razón por la que el consejero delegado de la desarrolladora de ChatGPT sigue siendo tan optimista sobre la pronta consecución de la AGI. Si OpenAI alcanza ese mismo objetivo, su enorme acuerdo con Microsoft se transformará, probablemente, a favor de la startup.

“La junta determina cuándo hemos alcanzado la AGI. Una vez más, por AGI entendemos un sistema altamente autónomo que supera a los humanos en la mayoría de los trabajos económicamente valiosos”, explica la propia empresa en su página web. Un sistema así estaría excluido de las licencias de propiedad intelectual y de las otras condiciones comerciales pactadas con Microsoft, que solo se aplicarían a la tecnología pre-AGI.

Las atrevidas predicciones de Altman en materia de inteligencia artificial general también podrían ser un eficaz grito de guerra para los trabajadores de la desarrolladora de ChatGPT. Elon Musk lleva años pronosticando la llegada de los seres humanos a Marte y de los coches autónomos y, a menudo, incumple sus propios plazos y predicciones, pero consigue animar a sus tropas, alentándoles con una importante misión.

La AGI para 2025 sin duda es una mejor declaración de intenciones que los objetivos relacionados con la inteligencia artificial más mundanos y alcanzables como: “¡Automatizaremos la facturación de la organización!”. Aunque quizá eso fuese más rentable.

Las tendencias tecnológicas no duran para siempre

Otras corrientes del sector tecnológico también han dejado de funcionar tras años de progreso constante. Y las repercusiones no han sido buenas para algunas de las compañías implicadas.

La Ley de Moore probablemente sea el mejor ejemplo. Según esta ley, el número de transistores de un circuito integrado se duplica aproximadamente cada dos años. Este principio se convirtió en el evangelio de la industria tecnológica e impulsó enormes ganancias en potencia de cálculo y otros beneficios, especialmente para firmas como Intel.

Entonces, dejó de funcionar, tal y como determinó el Laboratorio de Informática e Inteligencia Artificial del MIT. Intel tardó cinco años en pasar de la tecnología de chips de 14 nanómetros (2014) a la de 10 nanómetros (2019), en lugar de los dos años que anticipó la Ley de Moore.

Desde que los inversores se dieron cuenta de esto en 2019, las acciones de Intel se han desplomado alrededor de un 50%. El fabricante tecnológico nunca ha conseguido recuperarse, al menos de momento.