Anthropic exclu par Trump : OpenAI récupère le contrat du Pentagone
L'administration Trump a ordonné vendredi 27 février l'exclusion immédiate d'Anthropic de tous les contrats fédéraux américains. Le créateur de Claude, concurrent direct de ChatGPT, a refusé de permettre l'utilisation de son IA pour la surveillance de masse et les armes autonomes. Quelques heures plus tard, OpenAI annonçait avoir conclu un accord avec le département de la Défense.
Le conflit couvait depuis des mois entre le Pentagone et Anthropic. En juin dernier, la startup de San Francisco avait signé un contrat de 200 millions de dollars avec le gouvernement américain. Mais l'entreprise fondée par d'anciens cadres d'OpenAI avait posé deux lignes rouges non négociables : interdiction d'utiliser Claude pour la surveillance de masse des citoyens américains et refus de participer au développement d'armes létales entièrement autonomes.
Le secrétaire à la Défense Pete Hegseth avait fixé un ultimatum à 17h01 vendredi. Anthropic devait lever ses restrictions ou perdre son contrat. L'entreprise a tenu bon. « Aucune intimidation ou sanction du département de la Défense ne changera notre position sur la surveillance de masse ou les armes entièrement autonomes », a déclaré la société dans un communiqué.
Trump qualifie Anthropic de « woke » et « gauche radicale »
La réponse de Donald Trump ne s'est pas fait attendre. Sur Truth Social, le président a ordonné à « CHAQUE agence fédérale du gouvernement des États-Unis de CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic ». Il a qualifié l'entreprise de « woke » et de « gauche radicale », affirmant qu'elle « met en danger les troupes et la sécurité nationale ».
Pete Hegseth est allé plus loin en désignant Anthropic comme un « risque pour la chaîne d'approvisionnement de la sécurité nationale ». Cette sanction, habituellement réservée aux entreprises de pays adversaires comme Huawei en Chine, interdit désormais à tout sous-traitant militaire de collaborer avec Anthropic. Les agences fédérales disposent de six mois pour éliminer toute trace de la technologie Claude de leurs systèmes.
L'ironie de la situation n'échappe à personne. Claude est actuellement le seul modèle d'IA utilisé dans les systèmes classifiés de l'armée américaine. Il aurait notamment été employé lors de l'opération qui a conduit à l'arrestation de Nicolás Maduro.
OpenAI signe avec le Pentagone dans la foulée
Quelques heures après l'annonce de Trump, OpenAI a révélé avoir conclu un accord avec le département de la Défense pour déployer sa technologie sur les réseaux classifiés. Sam Altman, le patron d'OpenAI, a pourtant pris soin de se démarquer de l'approche belliciste de l'administration. « Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse domestique et la responsabilité humaine dans l'usage de la force », a-t-il déclaré, précisant que le Pentagone avait accepté ces conditions.
Le PDG d'OpenAI est même allé jusqu'à défendre publiquement son rival. Dans une interview à CNBC, il a qualifié l'approche du Pentagone de « menaçante » et affirmé : « Malgré toutes mes différences avec Anthropic, je leur fais globalement confiance en tant qu'entreprise, et je pense qu'ils se soucient vraiment de la sécurité ». Une solidarité inattendue entre concurrents face aux exigences gouvernementales.
Plus de 400 employés de Google et 75 d'OpenAI ont signé une lettre ouverte de soutien à Anthropic. Une centaine d'ingénieurs Google travaillant sur l'IA ont également demandé à leur direction d'adopter les mêmes restrictions éthiques. Selon un sondage Morning Consult, 50 % des Américains considèrent les sanctions contre Anthropic comme un excès de pouvoir gouvernemental, contre 35 % qui les jugent nécessaires pour la sécurité nationale.
Anthropic a annoncé son intention de contester la désignation de « risque pour la chaîne d'approvisionnement » devant les tribunaux. « Nous pensons que cette désignation serait juridiquement infondée et créerait un dangereux précédent pour toute entreprise américaine qui négocie avec le gouvernement », a prévenu la société. La bataille entre éthique de l'IA et raison d'État ne fait que commencer.