El incidente de Scarlett Johansson con OpenAI

Por Intelligencer con Edición dat0s
0
556
Scarlett Johansson chatgpt OPENAI

Scarlett Johansson no permitió que ChatGPT usara su voz, pero OpenAI lo hizo igualmente. La compañía ha tenido que retirarla tras las peticiones legales de sus abogados.

El 13 de mayo, OpenAI demostró un nuevo modelo con una serie de conversaciones en vivo entre su personal y un asistente de voz de IA. El chatbot me resultó familiar en ambos sentidos de la palabra. Sus respuestas fueron casuales, agradables y, a veces, incómodamente halagadoras. También estaba la forma en que sonaba: como una voz que quizás hayas escuchado antes en un contexto relacionado. Durante la presentación, Sam Altman despejó cualquier duda sobre lo que buscaba su empresa.

Las empresas de inteligencia artificial tienen una relación curiosa con la ciencia ficción. Por un lado, se encuentran en la rara y útil posición de operar en un espacio que ha sido explorado en la ficción especulativa durante años. En lugar de explicar lo que hacen, cómo lo hacen o por qué lo hacen, tienen la opción de simplemente hacer referencia a ideas y conceptos que han existido en la imaginación popular durante generaciones. Es un poco como decir que vas a ir a Marte o construir un coche volador. La gente sabe de lo que estás hablando. Sin embargo, a fin de cuentas, es un buen negocio para empresas como OpenAI, a menos, por supuesto, que lo lleven demasiado lejos.

Por ejemplo: una cosa es lanzar un producto que invite a comparaciones con películas como Her, en la que la protagonista se enamora de un personaje de IA con la voz de Scarlett Johansson. Estás jugando con tropos y expectativas, claro, pero también estás seguro de que tu chatbot suena lo suficientemente fluido como para que tales comparaciones sean fáciles, al menos para algunos espectadores. Otra muy distinta es insistir en que el público haga esa comparación, decir: “Oye, ¿conoces esa película con la voz de la IA? Bueno, eso lo hicimos aquí, ¿ves? Este es un comportamiento mucho más sudoroso y menos confiado, y una admisión, tal vez, de que OpenAI también está de alguna manera en el negocio de la ficción especulativa. Otra cosa es cuando el poseedor de la voz en la que evidentemente se basó su producto — afirma que usted le pidió permiso para usarlo, le dijeron que no y decidió seguir adelante de todos modos.

Dejando de lado las cuestiones legales aquí, tal comportamiento se alinearía con algunas de las críticas más duras a Sam Altman y OpenAI: que es una empresa que tiene poca consideración por el valor del trabajo creativo dirigido por un operador intrigante y poco confiable. Este episodio también complica la narrativa preferida de la compañía sobre la inevitabilidad imparable: o eres la compañía que aprovecha el fenómeno apenas controlado de la inminente inteligencia artificial autorreplicante, llevando a la humanidad a su próxima era tecnológica, o eres una empresa emergente en etapa intermedia. que por alguna razón realmente necesita copiar esa voz de esa película para comercializar una actualización del producto.

La desigual disputa pública de OpenAI con uno de los seres humanos más reconocibles del mundo es el último de una serie de episodios en los que OpenAI y Sam Altman han luchado por mantener sus historias en orden. Poco después de la demostración de OpenAI, surgió la noticia de que los líderes y gran parte del personal asociado con su equipo de “superalineación”, un grupo que se estableció el año pasado y cuya tarea era descubrir cómo “dirigir y controlar sistemas de IA mucho más inteligentes que nosotros”, dimitió, entre ellos el cofundador de OpenAI y ex científico jefe Ilya Sutskever. Con excepción del jefe de superalineación, Jan Leike, quien dijo que había estado “en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo”, la mayoría de las renuncias fueron anunciadas silenciosamente o concisamente; por necesidad. Fue como Vox informó que habían firmado un “acuerdo de baja extremadamente restrictivo que contiene disposiciones de no divulgación” que “les prohíbe, por el resto de sus vidas, criticar a su antiguo empleador”. Altman, respondió que estaba “realmente avergonzado” por cómo había sucedido esto.

Si está totalmente comprometido con la narrativa de que OpenAI es la empresa de tecnología que acabará con todas las empresas de tecnología (la única empresa que puede generar inteligencia artificial general, un administrador legítimo de un futuro que la mayoría de la gente no puede comprender), entonces podría preocuparse. Que OpenAI se haya alejado de la seguridad y la alineación hacia el desarrollo desinhibido de la IA, eche al diablo las consecuencias. Pero el comportamiento reciente de la empresa, y el de su director ejecutivo, que fue destituido brevemente por una junta que lo acusó de falta de “franqueza” antes de recuperar el poder, también es consistente con el de una empresa que enfrenta muchos problemas principalmente para dar a entender lo poderosa que algún día llegaría a ser: una empresa que ha recaudado enormes cantidades de dinero no sólo gracias a su tecnología o a un negocio claramente definido, pero con una serie de grandiosos y sospechosamente familiares historias sobre el futuro, extraídas de la ficción del pasado.