Anthropic contre le Pentagone : ce que le refus d'un PDG révèle sur le leadership

Et si l'heure n'était plus aux prophètes de la croissance infinie, mais aux sentinelles de l'intégrité ? Dans un monde obsédé par l'expansion et la puissance technologique, une nouvelle figure de proue émerge et nous secoue. Et si le vrai leadership consistait, enfin, à savoir dire « non » quand les lignes rouges sont franchies ?

À travers le bras de fer historique entre Anthropic et la raison d'État, c'est le procès de notre propre rapport au progrès qui s'ouvre. Analyse d'un séisme éthique qui redéfinit l'art de diriger.

Il suffit parfois qu’un seul dise non pour que d’autres se lèvent.

par Sylvie Gendreau

 
 

Création visuelle : Pierre Guité et Mid-Journey

Le Chaos en Boucle

Nous vivons dans un monde où trois forces convergent pour créer un désordre systémique :

L’intelligence artificielle omniprésente 
Elle rédige, analyse, prédit et conseille désormais jusqu’aux généraux. Elle avance à une vitesse qui sature la capacité de réaction des législateurs et des citoyens. 

→ La Remilitarisation Globale 
La course à l’IA militaire est la nouvelle course à l’espace. Mais l’enjeu n’est plus de planter un drapeau ; il est de décider qui vit et qui meurt.

L’érosion du courage 
Les valeurs sont gravées sur les murs, puis pliées discrètement quand le pouvoir cogne à la porte.

C’est dans ce paysage qu’un homme vient de faire quelque chose de profondément courageux et sage.

Un « NON » qui a résonné dans le monde entier

En février 2026, Dario Amodei, cofondateur et PDG d’Anthropic, a refusé de retirer les garde-fous éthiques de Claude, son modèle d’intelligence artificielle, afin de satisfaire aux exigences du Pentagone. Il ne s’agissait pas d’un refus de collaborer avec l’armée — Anthropic travaille activement avec la défense et le renseignement américains. Il s’agissait de deux limites précises : pas de surveillance de masse des citoyens américains, pas d’armes entièrement autonomes sans humain dans la boucle de décision.

La réponse du pouvoir a été brutale. Le président Trump a ordonné à toutes les agences fédérales de cesser d’utiliser Anthropic. Le Pentagone a désigné l’entreprise comme « risque pour la chaîne d’approvisionnement », une étiquette jamais appliquée à une entreprise américaine, réservée jusqu’alors aux entités liées à des puissances ennemies. Un haut responsable du Département de la Défense a qualifié Amodei de « menteur avec un complexe de Dieu » sur les réseaux sociaux.

Mais ce qui s’est passé ensuite est la partie la plus révélatrice de cette histoire.

En 48 heures, plus de 450 employés de Google et d’OpenAI — les principaux concurrents d’Anthropic — ont signé une lettre ouverte intitulée « We Will Not Be Divided ». Le PDG d’OpenAI, Sam Altman, a déclaré partager les mêmes lignes rouges. Plus de 100 chercheurs de Google DeepMind ont écrit à leur directeur scientifique. Le professeur Lawrence Lessig, de Harvard, a qualifié la déclaration d’Amodei de « bel acte d’intégrité, incroyablement rare pour notre époque. »

Il a suffi qu’un seul dise non pour que des centaines se lèvent.

Ce phénomène de contagion du courage est l’une des dynamiques sous-estimées du leadership contemporain. Et elle mérite qu’on s’y arrête.

Pendant que des centaines d'employés se levaient, les coulisses racontaient une tout autre histoire. Quelques heures à peine après la disgrâce d'Anthropic, OpenAI annonçait avoir conclu un accord avec le Pentagone pour déployer ses modèles dans les systèmes classifiés. Son PDG, Sam Altman, affirmait avoir négocié les mêmes protections qu'Anthropic exigeait — pas de surveillance de masse, pas d'armes autonomes. Il déclarait même publiquement qu'Anthropic ne méritait pas d'être désignée comme un risque.

Altman dit partager les valeurs d'Amodei. Ses employés signent une lettre pour soutenir Amodei. Et dans le même mouvement, il signe le contrat qu'Amodei a refusé — quelques heures après que ce refus a valu à son concurrent d'être traité en ennemi de l'État.

Le Pentagone invoque la raison d'État. Altman invoque les mêmes principes qu'Amodei — mais en signant d'abord et en posant ses conditions ensuite. L'un a d'abord dit non au pouvoir, puis a cherché un compromis. L'autre a d'abord dit oui, puis a expliqué ses nuances.

L'ordre compte. Il définit où se trouve votre centre de gravité moral.

L'Ordre des Facteurs


Pourquoi le NON d'Amodei est un acte fondateur

Dans le monde des affaires, on nous apprend souvent que le compromis est une vertu. Mais le conflit de février 2026 nous montre qu'il existe un seuil de saturation éthique au-delà duquel le compromis devient une compromission. C'est ici que l'ordre des facteurs change tout.

Le Piège de la Cooptation (Le modèle Altman)

En acceptant de signer avant de sécuriser les garanties, OpenAI parie sur sa capacité à influencer le pouvoir de l'intérieur. C'est une stratégie classique de Realpolitik.

Altman avait écrit à ses employés dès le jeudi — avant le date de tombée — qu'il partageait les lignes rouges d'Anthropic, et il a publiquement déclaré que le Pentagone ne devrait pas menacer les entreprises avec le Defense Production Act.

Le risque : En leadership, une fois que vous avez dit OUI au contrat, votre levier de négociation s'évapore. Le constat est amer : vous n'êtes plus un partenaire qui co-construit l'avenir, vous êtes un prestataire qui exécute une commande.

L’Histoire regorge de leaders qui croyaient influencer le système — et que le système a fini par absorber.

La Souveraineté du Refus (Le modèle Amodei)

Amodei a compris que la seule position de force face à un pouvoir régalien (le Pentagone) est la capacité de retrait. En disant NON d'abord, il définit le cadre. Le compromis ne pourra se faire que selon ses termes ou ne se fera pas.

Cette souveraineté n’est pas un luxe de milliardaire. Elle est le fruit d'une construction méthodique :

Une culture de cohérence : Le refus d'Amodei n'est pas un caprice de PDG ; c'est l'expression d'une organisation entière qui a été bâtie (comme Public Benefit Corporation) pour ce moment précis.

La clarté comme armure : Quand le NON est aligné avec la mission de l'entreprise, il devient inattaquable en interne. Les employés ne voient pas un contrat perdu ; ils voient une promesse tenue. Mais cette cohérence ne s'est pas construite en une nuit. Pour comprendre pourquoi Anthropic a tenu là où d'autres auraient plié, il faut remonter à ses origines.

Un cas d'école sur l'éthique technologique face au pouvoir d'État

Là où la Silicon Valley vénère le « move fast and break things », Amodei propose un contre-modèle : avancer vite, mais ne rien briser qui ne puisse être réparé. Ancien pilier d'OpenAI, il a quitté l'entreprise en 2021 avec une partie de l'équipe de recherche (dont sa sœur Daniela) par crainte que la quête commerciale ne sacrifie la sécurité de l'humanité.

Une Vision : L'IA Constitutionnelle

L'originalité d'Anthropic repose sur le concept de Constitutional AI. Contrairement aux autres modèles entraînés uniquement sur les préférences humaines (souvent biaisées), Claude (l'IA d'Anthropic) est guidé par une constitution explicite inspirée, entre autres, de la Déclaration Universelle des Droits de l'Homme.

C'est l'équivalent, dans le monde de l'IA, d'un code de gouvernance qui ne reste pas dans un tiroir — il est inscrit dans le fonctionnement même du produit. Chaque réponse de Claude est filtrée par cette constitution. Imaginez si chaque décision dans votre organisation était filtrée par vos valeurs fondatrices, non pas comme un idéal, mais comme un processus.

Pourquoi est-ce un exemple de leadership ?

Amodei ne se contente pas de souhaiter que son IA soit bonne ; il a codifié une éthique. C'est un leader qui accepte de brider la puissance de son produit pour en garantir l'intégrité.

Une structure d'Entreprise unique (PBC)

Anthropic est une Public Benefit Corporation (société à mission). Cela signifie que les dirigeants ont l'obligation légale de peser l'impact social au même titre que le profit des actionnaires. Amodei a ainsi créé un rempart structurel contre la cupidité à court terme.

Quand le Pentagone a exigé qu'Amodei retire ses garde-fous, ce n'était pas seulement sa conscience personnelle qui résistait — c'était la structure juridique même de son entreprise. Le bouclier n'était pas psychologique. Il était constitutionnel.

La culture d’entreprise, le socle d’une réussite pérenne

Comment un dirigeant peut-il tenir bon quand tout le pousse à céder ? La réponse ne se trouve pas dans le caractère individuel. Elle se trouve dans la culture de l’organisation qu’il a bâtie.

Dario Amodei a révélé récemment qu’il consacre près de 40 % de son temps — pas aux produits, pas à la stratégie financière, pas aux négociations commerciales — mais à la culture d’Anthropic. Quarante pour cent ! Chez un PDG dont l’entreprise est valorisée à 380 milliards de dollars et emploie 2 500 personnes, c’est un choix radical.

Il organise des réunions générales appelées Dario Vision Quest, où il mêle stratégie produit, analyse géopolitique et discussion sur les valeurs de l’entreprise. Il ne s’agit pas de séances de motivation creuses. Il s’agit de construire, brique par brique, un alignement profond entre ce que l’entreprise fait et les raisons pour lesquelles elle le fait.

Cet investissement explique un fait remarquable : quand la crise avec le Pentagone a éclaté, aucune fissure interne n’est apparue. Aucune fuite hostile. Aucune démission spectaculaire. L’organisation a tenu en bloc parce que ses membres savaient pourquoi ils étaient là.

Quel est le dénominateur commun des organisations qui s’effondrent en temps de crise ?

Le dénominateur commun n’est presque jamais un problème de stratégie ou de technologie. C’est un problème de culture. Quand les valeurs ne sont qu’un document RH, elles ne résistent pas à la première tempête. Quand elles sont vécues au quotidien, elles constituent le système immunitaire de l’organisation.

Ce qui distingue Amodei de la plupart des dirigeants qui défendent des valeurs, c’est la précision. Il ne brandit pas un manifeste philosophique. Il ne fait pas de discours grandioses sur la paix dans le monde. Il pose deux limites concrètes, argumentées techniquement. Sur les armes autonomes, son raisonnement est celui d’un scientifique : les systèmes d’IA actuels ne sont tout simplement pas assez fiables pour prendre des décisions létales sans supervision humaine. Ce n’est pas de l’idéologie. C’est de l’ingénierie.

Sur la surveillance de masse, il démontre que l’IA peut désormais assembler des données individuellement anodines — déplacements, historique de navigation, associations sociales — en un portrait exhaustif de la vie de n’importe quel citoyen, automatiquement et à grande échelle. La loi n’a pas encore rattrapé cette capacité.

Deux lignes rouges. Pas dix. Pas un code d’éthique de 200 pages que personne ne lit. Deux engagements clairs, mesurables, défendables.

Cette précision est une leçon cruciale pour tout dirigeant. Les valeurs vagues ne protègent pas. « Nous agissons avec intégrité » est un slogan. « Nous ne déploierons pas notre technologie pour de la surveillance de masse » est un engagement. Le premier se plie au premier vent contraire. Le second vous tient debout quand la tempête arrive — précisément parce que tout le monde sait où se trouve la ligne.

Amodei a inscrit ces principes dans la structure juridique même d’Anthropic, constituée en société d’utilité publique. La forme juridique devient un bouclier. On ne négocie pas les statuts d’une entreprise dans le feu d’une crise. On les grave quand tout va bien. Et quand la pression devient insoutenable, on s’y adosse.

LE COURAGE, une ressource pour une entreprise pérenne

La dynamique révélée par cette affaire n’est pas celle de la résistance d’un homme face au pouvoir. C’est ce que cette résistance a déclenché chez les autres.

La lettre ouverte des employés de Google et OpenAI portait un titre révélateur : « We Will Not Be Divided. » Elle dénonçait explicitement la stratégie de division du pouvoir : « Ils essaient de diviser chaque entreprise par la peur que l’autre cède. Cette stratégie ne fonctionne que si aucun d’entre nous ne sait où se situent les autres. »

Voilà la clé : la peur de la solitude. La raison pour laquelle tant de dirigeants renoncent à défendre leurs convictions n’est pas qu’ils n’en ont pas. C’est qu’ils croient être seuls. Ils regardent autour d’eux, ne voient personne debout, et concluent que s’asseoir est la seule option raisonnable.

Amodei a brisé ce cercle vicieux. En se levant le premier, il a révélé ce que plusieurs pensaient mais que personne n’osait dire. Il n’a pas créé le courage des autres — il leur a donné la permission de montrer le leur.

C’est un mécanisme que j’observe souvent dans les transformations organisationnelles. Un directeur général qui admet publiquement une erreur stratégique déverrouille la parole dans toute l’entreprise. Un gestionnaire qui refuse de couper les coins ronds relève le standard pour toute l’équipe. Le courage, comme la lâcheté, obéit à une logique de cascade.

LE CONTREPOINT

Pour mesurer la valeur du courage d’Amodei, il suffit d’observer ceux qui ont fait le choix inverse.

OpenAI a signé un contrat avec le Pentagone quelques heures après la disgrâce d’Anthropic.

Google a discrètement levé son interdiction interne sur l’IA pour les armes et la surveillance dès février 2025, ouvrant la porte aux contrats militaires. En 2018, quatre mille employés de Google avaient forcé l’entreprise à abandonner le Projet Maven, un contrat de reconnaissance d’images pour le Pentagone. Sept ans plus tard, l’entreprise est revenue sur ses pas, en silence.

Le schéma est classique et décourageant : des principes proclamés avec éclat, puis érodés par le temps et l’appel des profits. C’est la mort lente par compromis successifs. Chaque concession est raisonnable isolément. Leur cumul est catastrophique.

Amodei a refusé d’entrer dans cette spirale. Et c’est ce refus, plus que tout autre argument technique, qui fait de lui un modèle.

La suite lui a donné raison. Soixante-douze heures après avoir signé, Sam Altman a admis publiquement que l'accord était « opportuniste et bâclé » et a renégocié le contrat pour y inscrire les garde-fous qu'Amodei exigeait depuis le début.

Le nombre de signataires de la lettre « We Will Not Be Divided » a doublé pour atteindre 900, une campagne « Delete ChatGPT » s'est propagée sur les réseaux sociaux, et Claude est devenu l'application la plus téléchargée sur l'App Store d'Apple, dépassant ChatGPT pour la première fois.

Le 3 mars, Altman a publié un mémo interne (reposté sur X) dans lequel il reconnaît que l'accord avait été conclu trop vite : "We shouldn't have rushed to get this out on Friday. […] I think it just looked opportunistic and sloppy." OpenAI annonce simultanément l'amendement du contrat pour y inscrire explicitement l'interdiction de la surveillance domestique et exclure les agences de renseignement du Pentagone — dont la NSA — de l'utilisation de ses modèles. Le Guardian note que ce recul évoque le précédent Snowden de 2013, lorsque ce même journal avait révélé la collecte massive de communications par la NSA. Une seconde lettre ouverte, signée par des employés de Salesforce, IBM, Cursor et Databricks, demande au Congrès d'examiner la légalité de la désignation d'Anthropic comme "supply chain risk".

4 Leçons de Leadership

Même si vous ne négociez pas avec le Pentagone, l'exemple d'Amodei offre une boussole pour vos propres dilemmes :

  1. Définissez vos lignes rouges avant la crise. Deux ou trois engagements concrets valent mieux qu'un manifeste de 200 pages.

  2. Inscrivez-les dans votre structure. Ce qui est gravé dans les statuts résiste mieux que ce qui est déclaré en réunion.

  3. Investissez dans la culture quand tout va bien. La cohésion est l'armure des jours de tempête.

  4. Acceptez le coût. Le courage et l’intégrité exigent un investissement.

Les leaders dont le monde a besoin

Nous vivons une époque où la technologie avance plus vite que la sagesse, où la puissance militaire cherche à s’affranchir des garde-fous démocratiques, où le monde des affaires a largement remplacé les principes par les performances trimestrielles.

Dans ce paysage, Dario Amodei représente quelque chose de précieux : un dirigeant qui a construit une organisation où les valeurs ne sont pas un ornement, mais un cadre fondateur, une structure. Où la culture est le système nerveux de l’entreprise. Où le NON d’un seul homme peut devenir le NON d’une industrie entière.

Est-il en voie de devenir un des grands leaders du siècle ? Le siècle est jeune, et l’histoire n’a pas encore rendu son verdict. Mais il a déjà démontré que l’autorité véritable ne vient pas seulement du pouvoir que l’on détient, mais aussi des limites que l’on s’impose.

Et si la modernité ne consistait pas à s’adapter au pouvoir, mais à le transformer pour qu’il serve le bien commun ?

Quand Amodei a dit « Être en désaccord avec le gouvernement, c’est la chose la plus américaine au monde, » il ne parlait pas seulement de l’Amérique. Il parlait de toute société où un citoyen, un entrepreneur, un dirigeant a le droit et le devoir de se tenir debout face au pouvoir — non pas contre lui, mais pour que ce pouvoir reste digne de la confiance qu’on lui accorde.

La Souveraineté des Limites

Dario Amodei nous rappelle que l'autorité véritable ne vient pas du pouvoir que l'on détient, mais des limites que l'on s'impose. Dans un siècle dominé par les machines, il nous offre une leçon d'humanité essentielle : la puissance du caractère face à la puissance de calcul.


Pour aller plus loin :

Inspirez-vous de Mark Carney : Février 2026 : Diriger quand le sol se dérobe — Ce que la crise canadienne enseigne à tous les leaders

Lisez l’histoire inspirante d’un entrepreneur québécois de génie : Martin Thériault et le plan de 2 milliards de dollars pour la souveraineté industrielle

Vous avez aimé cet article…
Recevez la lettre du Nouveau Leadership


Références

Amodei, Dario. Déclaration publique sur les lignes rouges d'Anthropic face au Pentagone. Blog d'Anthropic, San Francisco, 27 février 2026.

Amodei, Dario. Entrevue exclusive avec Jo Ling Kent. CBS News, New York, 28 février 2026.
Couverture de la crise

Seetharaman, Deepa et Dotan, Tom. « OpenAI sweeps in to snag Pentagon contract after Anthropic labeled 'supply chain risk' in unprecedented move ». Fortune, New York, 28 février 2026.

Fried, Ina et Mills, Madison. « Trump moves to blacklist Anthropic's Claude from government work ». Axios, Washington, 27 février 2026.

Lawrence, Drew F. « Experts raise questions and concerns about Pentagon's threat to blacklist Anthropic ». DefenseScoop, Washington, 27 février 2026.

Brandom, Russell. « Pentagon moves to designate Anthropic as a supply-chain risk ». TechCrunch, San Francisco, 27 février 2026.

Stokel, Walter, OpenAI amends Pentagon deal as Sam Altman admits it looks ‘sloppy’, The Guardina, 3 mars 2026.

Lettre ouverte et contagion du courage

Employés de Google et d'OpenAI. « We Will Not Be Divided ». Lettre ouverte publiée sur notdivided.org, 27 février 2026.

Coldewey, Devin. « Employees at Google and OpenAI support Anthropic's Pentagon stand in open letter ». TechCrunch, San Francisco, 27 février 2026.

Lessig, Lawrence. Publication sur LinkedIn saluant la déclaration d'Anthropic comme « a beautiful act of integrity ». LinkedIn, 27 février 2026.

Culture d'entreprise

Amodei, Dario. Entretien au Dwarkesh Podcast, février 2026 ; repris dans : « Anthropic's Dario Amodei says he spends up to 40% of his time on company culture, not products ». Fortune, New York, 26 février 2026.

Bass, Dina. « Anthropic's secret weapon is its cult of safety ». Bloomberg / Jefferson City News-Tribune, 8 février 2026.

Contrepoint Google

Tiku, Nitasha et De Vynck, Gerrit. « Google drops pledge not to use AI for weapons or surveillance ». The Washington Post, Washington, 4 février 2025.

Maruf, Ramishah. « Google erases promise not to use AI technology for weapons or surveillance ». CNN, New York, 4 février 2025.

Contexte fondateur d'Anthropic

Bai, Yuntao et al. « Constitutional AI: Harmlessness from AI Feedback ». Anthropic Research, décembre 2022 (arxiv.org).

Cooper, Anderson. « Why Anthropic CEO Dario Amodei spends so much time warning of AI's potential dangers ». CBS News / 60 Minutes, New York, 17 novembre 2025.


Suivant
Suivant

Février 2026 : Diriger quand le sol se dérobe — Ce que la crise canadienne enseigne à tous les leaders