Anthropic

Anthropic bloque l’utilisation de son IA par le Pentagone pour la « surveillance intérieure de masse » et les « armes complètement autonomes »

Publié le

L’administration Trump avait donné jusqu’à vendredi à Dario Amodei, patron de l’entreprise, pour qu’il ouvre sans contraintes son modèle Claude. Ce dernier a rejeté la demande, affirmant que « dans certains cas précis (…) l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».

Dario Amodei, patron d’Anthropic, à l’AI Impact Summit, à New Delhi, en Inde, le 19 février 2026. LUDOVIC MARIN/AFP

Pete Hegseth, le secrétaire à la défense de Donald Trump, avait donné jusqu’à vendredi 27 février 17 heures à Dario Amodei, PDG d’Anthropic, pour qu’il permette au Pentagone d’utiliser sans contraintes son modèle d’intelligence artificielle (IA) Claude. La réponse à l’ultimatum est tombée dès jeudi après-midi : c’est non. « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande », écrit M. Amodei en conclusion d’un long communiqué.

« Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. C’est pourquoi Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du département de la guerre [le nouveau nom du ministère de la défense américain] et des services de renseignement », écrit le dirigeant, mais « dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».

L’entrepreneur entend continuer d’exclure deux domaines pour l’emploi de son IA, la « surveillance intérieure de masse » et les « armes complètement autonomes ».

Il rappelle que ces deux cas d’utilisation « n’ont jamais été inclus dans nos contrats avec le département de la guerre, et nous estimons qu’ils ne devraient pas l’être maintenant ».

(la suite dans: lemonde.fr