Le Pentagone contourne Anthropic : éthique IA vs réalités géopolitiques
Quand le Pentagone choisit de contourner les garde-fous d'Anthropic
L'intelligence artificielle est devenue le nouveau terrain de jeu des grandes puissances. Et dans cette course effrénée, même les principes éthiques les mieux intentionnés peuvent se retrouver mis à l'épreuve — ou tout simplement ignorés. C'est précisément ce que révèle la relation troublante entre le Département de la Défense américain et Anthropic, l'entreprise créatrice de Claude, réputée pour son engagement en faveur d'une IA sûre et responsable.
Le scénario est aussi simple qu'il est révélateur : plutôt que d'accepter les restrictions imposées par Anthropic sur l'utilisation militaire de ses modèles, le Pentagone aurait trouvé des voies détournées pour y accéder tout de même. Un cas d'école qui soulève des questions fondamentales sur la capacité réelle des entreprises tech à imposer leurs valeurs face aux exigences de l'appareil d'État.
Anthropic, l'entreprise qui voulait changer les règles du jeu
Fondée en 2021 par d'anciens membres d'OpenAI — dont Dario et Daniela Amodei — Anthropic s'est positionnée dès le départ comme une alternative éthique dans l'écosystème de l'IA générative. Son modèle phare, Claude, est conçu autour d'un cadre baptisé Constitutional AI : une approche visant à intégrer des principes moraux directement dans l'entraînement du modèle.
Dans ses conditions d'utilisation, Anthropic interdit explicitement certains usages militaires offensifs : développement d'armes autonomes, ciblage de populations civiles, désinformation à grande échelle dans des contextes de guerre. Des lignes rouges claires, affichées avec fierté.
Mais afficher des principes et les faire respecter face à la première puissance militaire mondiale sont deux choses très différentes.
Le contournement : comment ça fonctionne concrètement ?
Le mécanisme utilisé par le Pentagone n'est pas nécessairement illégal — et c'est précisément ce qui le rend si problématique. Il s'articule autour de plusieurs stratégies :
- Les intermédiaires cloud : Des fournisseurs comme Amazon Web Services (AWS) ou Google Cloud proposent des accès aux modèles d'Anthropic via leurs plateformes. Ces contrats B2B peuvent diluer la traçabilité des usages finaux.
- Les contrats via des sous-traitants défense : Des entreprises spécialisées dans la tech militaire — Palantir en tête — ont conclu des accords permettant d'intégrer des modèles d'IA dans des systèmes de décision opérationnelle.
- L'accès API sans vérification stricte : Les systèmes de vérification de l'identité et des intentions des utilisateurs restent imparfaits. Un accès API peut être masqué derrière des entités légales opaques.
En clair : les garde-fous existent sur le papier, mais leur application dans un écosystème aussi fragmenté que le cloud computing relève du défi quasi-insurmontable.
La tension structurelle entre Silicon Valley et les impératifs de défense
Ce cas Anthropic-Pentagone n'est pas isolé. Il s'inscrit dans une tension durable et profonde entre deux mondes qui n'ont jamais vraiment su coexister pacifiquement.
En 2018, Google avait dû renoncer au contrat Maven après une révolte interne de ses ingénieurs, opposés à l'utilisation de l'IA pour analyser des images de drones militaires. En 2023, OpenAI a discrètement modifié ses règles d'utilisation pour permettre certaines applications militaires. Microsoft, partenaire stratégique d'OpenAI, fournit déjà massivement l'armée américaine via son contrat cloud JEDI.
La trajectoire est claire : aucune grande plateforme d'IA ne peut indéfiniment résister à la demande institutionnelle des États, surtout lorsque ces États sont aussi leurs régulateurs, leurs investisseurs indirects et leurs plus gros clients potentiels.
Quelles implications pour l'avenir de l'IA éthique ?
Ce que révèle cette situation dépasse largement le cas Anthropic. Elle pose trois questions urgentes que la communauté tech, les régulateurs et les citoyens doivent affronter :
- L'autorégulation est-elle suffisante ? Les chartes éthiques internes des entreprises ne constituent pas un rempart juridiquement contraignant. Sans supervision externe et indépendante, elles restent des intentions, pas des garanties.
- Qui contrôle les contrôleurs ? Quand les États deviennent à la fois régulateurs de l'IA et ses utilisateurs militaires, le conflit d'intérêts est structurel. L'Union européenne, avec son AI Act, tente d'y répondre — mais les États-Unis, eux, ont choisi la voie de la compétitivité avant celle de la précaution.
- La transparence des usages militaires de l'IA : Le public a-t-il le droit de savoir quels systèmes d'IA participent à des décisions létales ? La réponse devrait être oui. La réalité, non.
Conclusion : l'éthique ne survit pas sans pouvoir
Anthropic incarne une ambition sincère et nécessaire : prouver qu'il est possible de construire une IA puissante sans sacrifier la responsabilité sur l'autel de la performance. Mais cette ambition se heurte à une réalité brutale — les principes sans mécanismes de coercition restent des vœux pieux.
Le Pentagone qui contourne les garde-fous d'Anthropic n'est pas une anomalie : c'est un symptôme. Le symptôme d'un monde où la course à la supériorité technologique et stratégique avance bien plus vite que notre capacité collective à la gouverner.
La vraie question n'est donc plus de savoir si l'IA sera utilisée à des fins militaires. Elle l'est déjà. La question est de décider, collectivement et démocratiquement, dans quelles conditions — avant que cette décision ne soit prise à notre place.
— Reservoir Live