Ya se hace comparaciones entre Sam Altman y Steve Jobs.
El viernes pasado, aparentemente de la nada, la junta directiva de OpenAI, anunció que había despedido a su famoso director ejecutivo, Sam Altman, el cado bo tendría ninguna connotación de no ser que Altman ha sido considerado uno de los hombres clave en el desarrollo de la inteligencia artificial. Hay mucha especulación sobre el despido. Se sabe que el memorándum aducía “por no ser consistentemente sincero en sus comunicaciones”, sin ofrecer más detalles. Las cosas se desarrollaron a partir de ahí. Es posible que OpenAI acabe siendo absorbida más temprano que tarde por Microsoft o acaba en algún experimento más extraño aún por verse. Para el mundo de la tecnología, es una historia “sísmica” e inconsistente, como cuando Steve Jobs fue despedido de Apple, excepto que tal vez el destino de la humanidad esté en juego.
Hay muchas teorías sobre lo que pasó aquí, algunas más creíbles que otras. Hay informes de que Altman estaba intentando recaudar fondos para una nueva empresa. Existe amplia evidencia de que la junta directiva sin fines de lucro de OpenAI, cuya misión es desarrollar IA segura para el “beneficio de la humanidad” – vaya contradicción de por medio- estaba preocupada por la dirección que Altman estaba tomando para la empresa. Según el medio especializado The Atlantic, se había producido una brecha cada vez más profunda desde el lanzamiento de ChatGPT entre una facción de verdaderos creyentes representada por el científico líder Ilya Sutskever, quien dirigió el golpe contra Altman, y una facción más grande liderada por Altman que quería perseguir el crecimiento y no parecía particularmente preocupado por, por ejemplo, destruir el mundo. Esos los niveles de la especulación.
Estas son diferentes visiones de lo que está empezando a suceder. Pero comparten un rasgo que ha hecho que la conversación sobre OpenAI, y la IA en general, se encuentre profundamente desconectada de la realidad y, francamente, un poco loca: todo es especulativo. Son apuestas. Son teorías basadas en premisas que se han vuelto invisibles en la nebulosidad de un año realmente dramático para el desarrollo de la IA, y que se están aplicando en el presente con resultados extraños.
Hay docenas de posiciones matizadas a lo largo del espectro del riesgo y el potencial de la IA, pero entre la gente de la industria, los campos más importantes se pueden describir así: La IA va a ser enorme, por lo tanto, debemos desarrollarla lo más rápido posible para realizar un futuro glorioso. La IA va a ser enorme, por lo tanto, debemos tener mucho cuidado para no hacer realidad un futuro horrible. La IA va a ser enorme, por lo tanto, necesitamos invertir para poder ganar mucho dinero y vencer a todos los que intentan poner el mosquito en la sopa. El resto se arreglará solo.
Les preocupa lo que podría suceder, lo que debería suceder, lo que no debería suceder y lo que sucederá. A pesar de estar articulados en términos de desacuerdo, tienen mucho en común: son personas que discuten sobre diferentes versiones de lo que creen que es un futuro inevitable en el que el tipo de trabajo que está haciendo. OpenAI se convierte, de una forma u otra, en el más importante y significativo desarrollo de la tecnología en el mundo. Si se pregunta por qué la gente está tratando las payasadas de los ejecutivos de OpenAI como la historia más importante del planeta, es porque muchas personas cercanas a Altman creen, o necesitan creer, que lo es.
Los temas especulativos novedosos y adyacentes a la ciencia ficción en el discurso de la IA reciben la mayor atención porque existen: la definición y probabilidad de “inteligencia general artificial”, que OpenAI describe como “un sistema altamente autónomo que supera a los humanos en el mejor de los casos”, trabajo económicamente valioso; la noción y perspectiva de una superinteligencia que podría subyugar a los humanos; experimentos mentales sobre IA desalineadas que arrasan el planeta para plantar más fresas o destruyen la civilización para maximizar la producción de clips.
Todas estas son predicciones con niveles de evidencia muy variables incluida las preguntas (¿pueden modelos de lenguaje suficientemente avanzados producir algo parecido a la inteligencia humana?), (¿la IA destruirá empleos?), no dejan de ser tan especulativos como resulta ser el despido de Altman.