Après avoir essuyé des critiques sur ce que le directeur général d'OpenAI a qualifié d'accord "opportuniste et bâclé", il a déclaré que l'entreprise allait mettre à jour son contrat afin d'empêcher explicitement que ses systèmes soient utilisés pour espionner les Américains.
Cet accord avait été conclu quelques jours plus tôt, à la suite d'un différend entre l'entreprise d'IA Anthropic et le département américain de la Défense concernant l'utilisation du modèle d'IA d'Anthropic, Claude, à des fins de surveillance de masse et d'armes entièrement autonomes.
Cette controverse a soulevé des questions sur la manière dont l'intelligence artificielle est déployée dans le contexte militaire et sur l'influence des gouvernements et des entreprises technologiques privées sur ces décisions.
OpenAI a déclaré que son accord avec le Pentagone comprenait déjà des garanties strictes pour les déploiements classifiés d'IA, mais l'entreprise a décidé de réviser les termes de l'accord à la suite des critiques publiques et de la réaction négative des utilisateurs.
M. Altman a ajouté que d'autres modifications garantiraient que les systèmes OpenAI ne puissent pas être utilisés à des fins de surveillance nationale.
Il a déclaré : "Les questions sont extrêmement complexes et exigent une communication claire. Nous essayions sincèrement de désamorcer la situation et d'éviter une issue bien pire, mais je pense que cela a simplement été perçu comme opportuniste et négligent."
OpenAI avait déclaré dans un communiqué précédent que son accord avec le Pentagone comportait "plus de garde-fous que tout accord précédent concernant les déploiements d'IA classifiés, y compris celui d'Anthropic."