Más de 600 empleados de Google exigen prohibir al Pentágono usar IA para trabajo clasificado

The Washington Post
0
135
google pentágono

“Queremos ver que la IA beneficie a la humanidad; no ver que se use de manera inhumana o extremadamente dañina”, escribieron los empleados de Google.

Cientos de empleados de Google enviaron una carta al CEO de la compañía el lunes exigiendo que prohíba al Pentágono usar la inteligencia artificial de Google para el trabajo clasificado, dos meses después de que la compañía rival de inteligencia artificial Anthropic fuera retirada por el Departamento de Defensa por solicitar una restricción similar.

La carta fue firmada por más de 600 empleados de Google, muchos de su laboratorio de élite DeepMind AI, según una copia de la carta vista por The Washington Post. La misma, pidió al director ejecutivo de la compañía, Sundar Pichai, que no llegara a ningún acuerdo con el Departamento de Defensa que permitiera los usos de la IA de la compañía que están clasificados. La carta argumentó que tal trabajo impediría que los representantes de Google supieran cómo se utilizaba la tecnología de la compañía.

“Queremos ver que la IA beneficie a la humanidad; no ver que se use de manera inhumana o extremadamente dañina. Esto incluye armas autónomas letales y vigilancia masiva, pero se extiende más allá”, escribieron los trabajadores en la carta.

“La única manera de garantizar que Google no se asocie con tales daños es rechazar cualquier carga de trabajo clasificada. De lo contrario, tales usos pueden ocurrir sin nuestro conocimiento o el poder de detenerlos”, dice la carta.

Google no respondió de inmediato a una solicitud de comentarios.

La carta se produce cuando la inteligencia artificial es cada vez más central para la guerra moderna, lo que desencadena el debate en la industria tecnológica sobre si las empresas de inteligencia artificial o sus empleados deberían opinar sobre cómo los militares utilizan su tecnología.

Los líderes del Pentágono han afirmado recientemente que deben tener libertad para usar la tecnología comercial de inteligencia artificial para “todos los usos legales”, una frase que los funcionarios han dicho que permite flexibilidad en diferentes situaciones mientras siguen los procedimientos legales y militares de los Estados Unidos.

Pero algunos expertos en IA afirman que tales garantías no son suficientes. A principios de este mes, el presidente Donald Trump amenazó con bombardear “todos” los puentes y centrales eléctricas de Irán, una acción que, según expertos consultados por The Post, violaría el derecho internacional. Los ataques de la administración Trump contra embarcaciones que supuestamente transportaban drogas también han sido cuestionados por expertos en derecho internacional.

“Ya se están perdiendo vidas humanas y se están poniendo en riesgo las libertades civiles en el país y en el extranjero por los usos indebidos de la tecnología a la que estamos desempeñando un papel clave en la construcción”, escribieron los empleados de Google en su petición, sin especificar a qué tecnología se referían.

Anthropic, fabricante del popular chatbot Claude, vio su tecnología integrada rápidamente el año pasado en los sistemas militares de Estados Unidos para ayudar a clasificar los datos e identificar objetivos potenciales, informó The Post. Pero la compañía fue abruptamente excluida de todo el trabajo con el Departamento de Defensa en febrero después de que trató de agregar una cláusula contractual para garantizar que su tecnología no se utilizara para la vigilancia masiva y para alimentar armas autónomas letales.

El gobierno y Anthropic están luchando en los tribunales sobre si el Pentágono actuó legalmente para cortar a la compañía.

La disputa de Anthropic con el Pentágono aumentó el escrutinio sobre rivales de IA como Google y OpenAI, que proporcionan tecnología de inteligencia artificial al ejército de los Estados Unidos.

OpenAI firmó un acuerdo para proporcionar IA para cargas de trabajo clasificadas en febrero, poco después de que el Pentágono retirara Anthropic. El presidente ejecutivo de OpenAI, Sam Altman, ha dicho que confía en que su contrato con el gobierno significa que su tecnología no se utilizará para la vigilancia masiva en los Estados Unidos o para armas autónomas letales.

La carta de los empleados de Google enviada el lunes cita un informe del medio de noticias tecnológicas Information a principios de este mes, que dijo que la compañía estaba en negociaciones con el Pentágono para un acuerdo similar al de OpenAI. La carta insta a Google a rechazar cualquier trabajo clasificado para garantizar que su tecnología no se utilice de manera que pueda dañar los derechos civiles o humanos.

Google tiene una historia de debate interno cuando se trata del uso militar de su tecnología. En 2018, la compañía decidió no renovar un acuerdo con el Pentágono que vio su software de inteligencia artificial utilizado para reconocer objetos en imágenes de drones después de que cientos de empleados firmaron una petición exigiendo el fin del trabajo.

Google presentó la promesa de que su tecnología de inteligencia artificial nunca se usaría para armas o vigilancia después de la protesta de 2018. Pero en los últimos años la compañía ha buscado activamente más contratos militares.

El año pasado, Google eliminó sus límites en el uso de la inteligencia artificial para armas y vigilancia. En diciembre, firmó un acuerdo para que el Departamento de Defensa utilizara su tecnología Gemini AI.


"La realidad no ha desaparecido, se ha convertido en un reflejo"

Jianwei Xun
Si quieres apoyar nuestro periodismo aporta aquí
Qr dat0s