La causa principal del terremoto en OpenAI

The Conversation
0
516
IA negocios

Sam Altman ha recuperado el mando de OpenAI tras una tumultuosa semana marcada por las luchas intestinas y las pugnas por el poder en el seno de la empresa. Su despido, en una especie de golpe de estado, ha estado provocado por los movimientos internos y la preocupación del consejo de administración por la velocidad vertiginosa a la que Altman desarrollaba productos y nuevas capacidades de la inteligencia artificial que podrían escapar del control de la propia empresa, y posiblemente del mundo.

El golpe inicial fue rápido, pero la venganza también. El consejo despidió a la persona que encarna la revolución mundial de la inteligencia artificial casi sin previo aviso. Microsoft, que había invertido alrededor de 10 000 millones de dólares en la empresa, habría sido avisada de la decisión con apenas 15 minutos de antelación.

Como represalia, Altman se incorporó de forma provisional al equipo de inteligencia artificial de Microsoft, al tiempo que cientos de empleados de OpenAI amenazaron con marcharse si no se readmitía a su exjefe. El órgano de administración, formado por cuatro personas, se vio obligado a dar un embarazoso giro de 180 grados. Después de defenestrar a tres de los suyos, el consejo renovado volvía a dar la bienvenida a Altman solo cuatro días después de echarlo.

Tensión entre ganancias y ética

Si bien no se conocen todos los detalles del despido, el conflicto pone de relieve la tensión inherente a la inteligencia artificial y a su tremendo potencial para mejorar la productividad, pero también para la autodestrucción. No cabe duda de que el hecho de que OpenAI sea una empresa con ánimo de lucro que forma parte de una fundación sin ánimo de lucro agrava el problema. Su consejo de administración está formado en su mayoría por miembros independientes, sin acciones en OpenAI, por lo que podría decirse que sus motivaciones e incentivos son contrarios a los intereses comerciales de la empresa.

Esa tensión es aún más evidente en los estatutos de la empresa: la responsabilidad del consejo era impulsar la misión de OpenAI y “garantizar que la inteligencia artificial general –que excede la inteligencia humana media– beneficie a toda la humanidad”.

Al mismo tiempo, inversores como Microsoft y el gigante del capital riesgo Sequoia no quieren frenar en exceso el desarrollo de esta tecnología mientras competidores como Google y las empresas chinas lo aceleran.

En este sentido, el principal obstáculo parece radicar en una colisión de normas y motivaciones entre el componente de empresa privada y el que no tiene ánimo de lucro. Así pues, no debería sorprendernos que los consejeros con vocación no lucrativa fueran sacrificados en el altar de la rentabilidad de los inversores.

Autorregulación empresarial

De esta historia también se extrae una importante lección sobre si las empresas pueden o deben autorregularse. Si OpenAI intentaba controlar el ritmo de desarrollo de la inteligencia artificial, también alimentaba la amenaza omnipresente de que otras empresas consiguieran una ventaja a su costa, porque, a fin de cuentas, suele ser difícil representar a la vez el papel de regulador y de regulado. Pero aún más cuando se trata de una nueva tecnología prometedora y, en potencia, aterradora.

OpenAI se halla ahora en un proceso de conversión hacia una empresa eminentemente comercial, o al menos una en que los fines sin ánimo de lucro estén más separados de los planes comerciales, como ocurre hoy en la mayoría de las fundaciones privadas.

Tal vez sea conveniente que la parte de fundación de OpenAI siga siendo abierta, y proporcione conocimientos y recursos a todo el mundo –también a sus competidores–, y que la parte comercial siga siendo competitiva y gestionada como una empresa privada. La regulación puede dejarse a las autoridades competentes, que, al fin y al cabo, son las que regulan al resto de las empresas.

 

Este artículo fue publicado originalmente por The Conversation