Abonnement Boutique Faire un don
frÉditions : française | anglaiseen | internationales+
Accéder au menu
Article précédent : « Poursuivre les États complices », page 10
Article suivant : « Les routes africaines de la cocaïne », page 12
>

Anthropic vs OpenAI

La bonne conscience de la Silicon Valley

Comme le théâtre de Guignol, la dramaturgie de la Silicon Valley suit un scénario rodé : l’industrie de l’intelligence artificielle (IA) communique sur les dangers que ses produits font courir à l’humanité et, simultanément, commercialise des solutions « éthiques ». La société Anthropic a porté cette stratégie à son point de perfection lors du conflit qui l’a récemment opposée au Pentagone.

JPEG - 119.9 kio
Du Kun. – « In Order » (En ordre), 2019
© Du Kun - Mizuma Art Gallery, Singapour, Tokyo

Le monde libre s’est trouvé un nouveau héros. Son nom ? Dario Amodei, citoyen américain de 43 ans. M. Amodei dirige l’entreprise Anthropic, principale rivale d’OpenAI sur le marché de l’intelligence artificielle (IA). À en croire les gros titres de la presse internationale, il incarne la résistance à la dérive fasciste de l’administration américaine. Anthropic n’est-elle pas « cette start-up d’IA qui ose contredire Donald Trump » (Le Monde, 11 février 2026) en refusant de céder aux oukases du Pentagone ? Celle dont la « prise de position courageuse » a mis l’administration Trump « hors d’elle » (Fortune, 21 février 2026) ? Depuis le retour du milliardaire à la Maison Blanche en janvier 2025, l’alliance toujours plus assumée entre les industriels du numérique et le président américain provoquait un certain malaise dans un milieu réputé libéral. Mais tout est bien qui finit bien : Anthropic aurait redoré le blason du secteur en imposant ses « lignes rouges » à l’État et à l’armée.

Retour sur les faits. En juillet 2025, Anthropic signe avec le ministère de la guerre un contrat de 200 millions de dollars sur deux ans : l’entreprise devient ainsi la première à déployer un grand modèle de langage (large language model, ou LLM) sur les réseaux classifiés du Pentagone. Son produit-phare, baptisé Claude, s’articule à la plate-forme Big Data fournie par Palantir, et l’ensemble se déploie sur l’infrastructure d’hébergement « top secret » construite par Amazon. Or, depuis sa création en 2021, Anthropic a fait de l’« éthique » son credo. L’entreprise a ainsi fixé deux limites qui semblent alors acceptées par l’armée : ne pas utiliser ses IA dans le cadre d’une surveillance de masse des résidents américains ou pour piloter des armes entièrement autonomes, c’est-à-dire sans supervision humaine.

Sauf que, dans la foulée, M. Trump adopte un décret présidentiel visant à « prévenir le déploiement d’IA woke au sein du (…)

Taille de l’article complet : 2 299 mots.

Cet article est réservé aux abonnés

Abonnez-vous pour lire cet article et soutenir un journal exigeant et engagé.
S'abonner
Déjà abonné(e) ? Connectez-vous pour accéder en ligne aux articles du journal.
Identifiez-vous
Lycées, bibliothèques, administrations, entreprises, accédez à la base de données en ligne de tous les articles du Monde diplomatique de 1954 à nos jours. Retrouvez cette offre spécifique.

Félix Tréguer

Chercheur associé au Centre Internet et société du Centre national de la recherche scientifique (CNRS).
papier

Partager cet article×

Ce message est trop long pour Twitter.
Icone Facebook  Icone Twitter

Info diplo

Inscrivez-vous à l'Infodiplo, notre lettre d'information hebdomadaire.

S’inscrire

En cliquant sur « S’inscrire », je reconnais avoir pris connaissance de la politique de confidentialité du Monde diplomatique et des droits dont je dispose sur mes données personnelles.

Changer d'email / se désinscrire
… et suivez-nous sur vos réseaux sociaux…