Anthropic : quand l'IA éthique cache des pratiques troublantes
Anthropic, le champion de l'IA responsable… vraiment ?
Anthropic se présente comme la société d'intelligence artificielle la plus soucieuse de sécurité au monde. Son modèle phare, Claude, est vendu comme une IA alignée, transparente, bienveillante. Le discours est soigné, les valeurs affichées, le manifeste ambitieux. Mais derrière cette vitrine irréprochable se cachent des pratiques qui méritent d'être examinées à la loupe. Espionnage de concurrents, accès non autorisé à des données, positionnement politique assumé : les contradictions s'accumulent et soulèvent des questions fondamentales sur ce que signifie réellement construire une IA "éthique".
Le paradoxe fondateur : une entreprise née de la méfiance… envers elle-même
Anthropic a été fondée en 2021 par Dario Amodei, Daniela Amodei et plusieurs anciens cadres d'OpenAI, qui ont quitté cette dernière en invoquant des préoccupations éthiques sur la direction prise par leur ancien employeur. Le projet initial semblait noble : créer un laboratoire d'IA dont la mission centrale serait la sécurité, pas le profit. La société a même publié un document fondateur dense — souvent appelé son "manifeste" — détaillant sa vision d'une IA développée de manière responsable.
Ce positionnement a séduit investisseurs et médias. Google, Amazon et d'autres géants y ont injecté des milliards. Mais ce succès fulgurant a aussi mis en lumière une tension structurelle : peut-on courir après les financements massifs tout en maintenant une posture éthique intransigeante ? L'histoire d'Anthropic suggère que non, pas toujours.
Le manifeste politique : une neutralité de façade
L'un des aspects les plus débattus dans les cercles spécialisés concerne le positionnement idéologique d'Anthropic. Contrairement à ce que son image soignée pourrait laisser croire, la société n'est pas neutre. Son manifeste interne, partiellement divulgué et analysé par plusieurs chercheurs, révèle une vision du monde distinctement progressiste et techno-paternaliste : l'idée que quelques experts bien intentionnés doivent guider l'humanité vers un futur sûr, quitte à décider à sa place ce qui est "sûr" ou non.
Cette posture soulève une question démocratique légitime :
- Qui décide de ce qu'une IA peut ou ne peut pas dire ?
- Sur quelle base ces valeurs sont-elles encodées dans les modèles ?
- Avec quelle légitimité une entreprise privée s'arroge-t-elle ce rôle de censeur bienveillant ?
Claude refuse régulièrement de traiter certains sujets jugés "sensibles", avec des biais de refus qui ne sont pas toujours cohérents ni transparents. L'éthique encodée dans une IA n'est jamais neutre — elle reflète les convictions de ses créateurs.
Accès non autorisé et pratiques d'entraînement controversées
Comme la quasi-totalité des grands laboratoires d'IA, Anthropic a entraîné ses modèles sur des corpus de données massifs. Et comme ses concurrents, elle fait face à des accusations sérieuses concernant l'utilisation non autorisée de contenus protégés par le droit d'auteur. Des auteurs, journalistes et créateurs ont dénoncé le pillage systématique de leurs œuvres sans consentement ni compensation.
Ce qui distingue Anthropic dans ce débat, c'est l'écart entre son discours éthique et ses actes. Une entreprise qui se proclame gardienne des bonnes pratiques de l'IA ne peut pas, sans perdre toute crédibilité, ignorer les droits fondamentaux des créateurs humains dont elle exploite le travail pour générer des revenus considérables.
L'accusation d'espionnage concurrentiel : quand la surveillance se retourne
Des rapports ont émergé, relayés par des sources internes et des journalistes spécialisés, faisant état de pratiques d'intelligence concurrentielle agressives au sein d'Anthropic. Il s'agirait notamment de tentatives de recruter des employés d'autres laboratoires dans le but explicite d'extraire des informations sensibles sur leurs recherches — une pratique à la frontière de l'espionnage industriel.
L'ironie est cinglante : une entreprise qui milite publiquement pour la coopération entre laboratoires d'IA et le partage des bonnes pratiques de sécurité adopterait en coulisses des comportements typiques de la guerre technologique qu'elle prétend vouloir éviter.
Ce que tout cela révèle sur l'industrie de l'IA "responsable"
Le cas Anthropic n'est pas isolé. Il est symptomatique d'une tension systémique dans l'industrie de l'IA : la pression des marchés, des investisseurs et de la compétition technologique pousse même les acteurs les plus idéalistes vers des compromis éthiques difficiles à assumer publiquement.
Plusieurs leçons s'imposent :
- Le discours éthique ne remplace pas la gouvernance. Sans contrôle externe, les auto-déclarations de vertu sont insuffisantes.
- La transparence doit être structurelle, pas marketing. Publier un manifeste ne suffit pas si les pratiques internes restent opaques.
- L'alignement des IA reflète des choix politiques. Il faut un débat démocratique sur ces choix, pas une décision unilatérale de quelques ingénieurs.
Conclusion : l'éthique ne peut pas être un argument commercial
Anthropic mérite d'être pris au sérieux — ses recherches sur la sécurité des IA sont réelles et importantes. Mais la société incarne aussi parfaitement le piège dans lequel tombe toute organisation qui fait de l'éthique son principal argument de vente : la tentation de privilégier l'image sur la substance. L'IA responsable ne peut pas être une marque. C'est un engagement quotidien, vérifiable, contestable et soumis à un regard extérieur indépendant. Tant que ce cadre n'existera pas, les promesses des laboratoires d'IA — Anthropic compris — devront être lues avec un scepticisme salutaire.
— Reservoir Live