Malgré la dispute, Anthropic va collaborer avec Trump

Malgré la dispute, Anthropic va collaborer avec Trump
Crédit: Getty Images

Anthropic AI a annoncé qu'elle allait collaborer avec l'organisation Trump afin d'intégrer son modèle d'IA dans les activités gouvernementales. Cette annonce intervient après qu'Anthropic s'est opposée au gouvernement américain plus tôt dans l'année concernant l'utilisation sans restriction de ce modèle par le Pentagone à des fins de défense. Anthropic, propriétaire de Claude, un modèle d'IA dont la popularité ne cesse de croître, est évaluée à près de 400 milliards de dollars américains.

Le lancement de Mythos

C'est le lancement par Anthropic de son nouveau modèle adapté, Mythos, qui a été à l'origine des réunions entre le PDG Dario Amodei et le personnel de la Maison Blanche. Mythos serait le modèle le plus avancé permettant de rendre les cyberattaques complexes à la fois plus faciles et plus rapides à exécuter. Les secteurs bancaires des États-Unis, du Canada et de la Grande-Bretagne ont tous prévu des réunions avec Anthropic afin de mieux comprendre le fonctionnement du modèle et la manière dont il peut être utilisé pour renforcer les défenses des banques contre les cyberattaques. Le secrétaire au Trésor Scott Bessent s'est joint à la chef de cabinet Susie Wiles lors de la réunion avec Amodei, a rapporté Axios. Anthropic a qualifié la réunion de « productive » et a annoncé qu'elle collaborerait (avec Trump) pour « travailler ensemble sur des priorités communes clés telles que la cybersécurité, le leadership américain dans la course à l'IA et la sécurité de l'IA ».

Anthropic contre le gouvernement américain

Il y a plusieurs mois, bien avant la sortie de Mythos, Anthropic était empêtrée dans une bataille avec le gouvernement américain et Pete Hegseth. Le gouvernement américain a demandé à toutes les grandes entreprises d'IA de donner un accès illimité à leurs modèles au département de la Défense. Hegseth a exigé que toutes les restrictions liées aux modèles soient levées afin que les États-Unis puissent exploiter pleinement le potentiel de cette technologie. Sam Altman, PDG d'OpenAI, a signé sans hésiter, tout comme Elon Musk, mais Anthropic a résisté. Les conséquences ont été considérables. Hegseth a menacé de qualifier l'entreprise de « risque pour la chaîne d'approvisionnement » si Anthropic ne levait pas les restrictions avant le 28 février (une date butoir qui est passée). Avec cette étiquette, aucune entreprise travaillant avec le département de la Défense ne serait autorisée à utiliser les logiciels d'Anthropic. Cette menace visait à mettre fin de manière effective à la croissance fulgurante d'Anthropic au cours des 18 derniers mois.

Hegseth a officiellement affublé Anthropic de cette étiquette en mars, et Anthropic a poursuivi le gouvernement américain en justice quelques jours plus tard à cause de cette étiquette. En ordonnant aux agences fédérales de cesser d'utiliser les outils d'IA d'Anthropic, le président américain Donald Trump a attaqué l'entreprise sur son compte Truth Social.

« Les cinglés de gauche chez Anthropic ont commis une ERREUR CATASTROPHIQUE en essayant de FORCER la main au ministère de la Guerre. »

-Donald Trump

Interrogé sur la réunion avec Anthropic du 17 avril, Trump a affirmé n'avoir aucune idée des détails ni du résultat de cette rencontre. Même si Trump a refusé de mentionner (ou a peut-être oublié) cette réunion, il semble que les relations entre Anthropic et le régime Trump aient commencé à se dégeler. Le cofondateur d'Anthropic, Jack Clark, a pratiquement confirmé ce fait, déclarant que la désignation de risque pour la chaîne d'approvisionnement constituait un « différend mineur ». Clark estime que cette désignation n'affectera pas la capacité de l'entreprise à présenter ses modèles au gouvernement.

Qu'est-ce qu'Anthropic AI ?

Anthropic AI a été fondée en 2021 par plusieurs anciens employés d'OpenAI. Avec une équipe de seulement sept personnes, Anthropic a développé son modèle d'IA Claude en à peine un an, et Claude 1 a été lancé en mars 2023. Après un investissement initial d'un milliard de dollars de la part de Google en 2021, Anthropic a accumulé une richesse inimaginable en moins de cinq ans, profitant pleinement du boom de l'IA en 2025. En 2024, Databricks a annoncé que Claude serait intégré à son logiciel, marquant ainsi une avancée majeure pour Anthropic. Deux ans plus tard, Anthropic est évaluée à près de trois fois la valeur de Databricks, une entreprise qui l'a précédée de près de dix ans. En mars, Anthropic est devenue la première entreprise américaine à être qualifiée de « risque pour la chaîne d'approvisionnement », ouvrant la voie à une ingérence excessive du gouvernement dans le secteur privé, mais Anthropic serait confiante dans sa capacité à faire lever cette qualification.

OpenAI cède à la pression du secteur de la défense.

Si la décision d'Anthropic de refuser au Pentagone un accès complet à son modèle a causé des problèmes à l'entreprise, elle lui a également valu les éloges du public, ce dont Sam Altman n'a pas bénéficié. OpenAI, le créateur de ChatGPT, s'est retrouvé dans la même situation qu'Anthropic mais a choisi de céder à la pression du gouvernement. Sam Altman a déclaré avoir été « poussé » à conclure l'accord le 28 février et a rédigé une explication sur X. Altman a affirmé qu'il « n'aurait pas dû se précipiter » pour signer le contrat du DoW, et que toute cette expérience a été « une leçon » pour le PDG milliardaire. Selon Altman, il essayait d'éviter une « issue bien pire », et lorsque ses tentatives pour désamorcer les discussions ont échoué, il a choisi de signer un contrat risqué plutôt que de faire courir un risque financier à ses actionnaires. Sam Altman pèse près de 4 milliards de dollars.

Altman a immédiatement essuyé des critiques pour avoir cédé à la pression du gouvernement, mais s'est défendu dans une autre déclaration. Altman affirme que des « fonctionnaires non élus » ne devraient pas décider de la manière dont la technologie doit être utilisée par le gouvernement. Altman a également déclaré qu'il ne voulait pas qu'OpenAI décide quoi faire en cas d'urgence aux États-Unis, en particulier en cas d'attaque nucléaire. Altman estime que les experts en IA ne sont pas en mesure de prendre des décisions concernant leurs propres logiciels, préférant faire confiance au gouvernement américain. Le gouvernement américain a repris le même argument contre Anthropic, mais en vain. Il est désormais clair que le gouvernement américain souhaite utiliser les modèles d'Anthropic, malgré leur classification comme risque pour la chaîne d'approvisionnement.