Anthropic a dévoilé le 7 avril 2026 son initiative Project Glasswing, destinée à sécuriser les infrastructures numériques mondiales. Un consortium d'entreprises technologiques majeures a désormais accès à Claude Mythos Preview, un modèle d'intelligence artificielle capable de détecter des vulnérabilités logicielles historiques restées invisibles jusqu'à présent.

Lancement de Project Glasswing

Anthropic collabore avec des géants comme Apple, Google et Microsoft pour identifier des failles de sécurité via l'IA Claude Mythos Preview.

Détection de failles historiques

Le nouveau modèle a identifié des vulnérabilités vieilles de 27 ans dans OpenBSD et de 16 ans dans FFmpeg qui n'avaient jamais été détectées.

Conflit avec le Pentagone

Anthropic conteste en justice sa classification comme « risque pour la chaîne d'approvisionnement » après avoir refusé d'alléger ses règles éthiques pour un usage militaire.

Anthropic a annoncé le 7 avril 2026 le lancement de Project Glasswing, une initiative de cybersécurité permettant à un groupe restreint de grandes entreprises technologiques d'accéder à son modèle d'intelligence artificielle non encore commercialisé, Claude Mythos Preview, à des fins de défense numérique. Le consortium réunit, comme partenaires inauguraux, Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, Nvidia et Palo Alto Networks. Selon Anthropic, Claude Mythos Preview a déjà identifié des milliers de vulnérabilités de haute gravité dans tous les principaux systèmes d'exploitation et navigateurs web. L'entreprise a précisé qu'elle ne rendra pas le modèle public, invoquant le risque qu'il soit détourné pour lancer des cyberattaques plutôt que pour les contrer. Anthropic a ajouté mener parallèlement des discussions avec le gouvernement des États-Unis au sujet des capacités du modèle. Des failles vieilles de plusieurs décennies découvertes dans OpenBSD et FFmpegParmi les révélations les plus marquantes d'Anthropic, Claude Mythos Preview a découvert une faille de sécurité vieille de 27 ans dans OpenBSD, un système d'exploitation pourtant réputé pour sa robustesse. Le modèle a également détecté une vulnérabilité datant de 16 ans dans FFmpeg, une bibliothèque logicielle vidéo, au sein d’une ligne de code qui aurait échappé à plus de cinq millions de tests automatisés. Selon Gizmodo, Mythos Preview a aussi identifié une chaîne de vulnérabilités dans Linux pouvant être exploitée pour une prise de contrôle totale de la machine. Anthropic estime que son modèle surpasse la quasi-totalité des chercheurs humains en sécurité pour la détection de défauts logiciels. Lors de tests de référence, Mythos Preview a systématiquement battu Claude Opus 4.6, notamment sur le banc d'essai CyberGym, qui mesure l'aptitude des agents d'IA à détecter et reproduire des vulnérabilités logicielles réelles.27 (ans) — Âge de la plus ancienne vulnérabilité trouvée par Claude Mythos PreviewAnthropic a été fondée en 2021 par d'anciens membres d'OpenAI, dont Dario Amodei et sa sœur Daniela Amodei, respectivement directeur général et présidente. L'entreprise développe la série de modèles de langage Claude, concurrents directs de ChatGPT d’OpenAI. Anthropic a précédemment révélé que des pirates avaient exploité des failles de son IA Claude pour attaquer environ 30 organisations mondiales. La conférence RSA 2026 sur la cybersécurité à San Francisco a été largement dominée par les débats sur l'essor des cyberattaques assistées par l'IA et sur l'adéquation des outils de sécurité actuels face à ces menaces. Jusqu'à 100 millions de dollars de crédits pour la sécurité de l'open sourceAnthropic s'est engagé à fournir jusqu'à 100 (millions USD) — crédits d'utilisation promis aux partenaires de Project Glasswing en crédits d'utilisation, ainsi que quatre millions de dollars en dons directs à des organisations travaillant sur la sécurité de l'open source. Au-delà des partenaires de lancement, l'entreprise prévoit d'étendre cet accès à environ 40 organisations supplémentaires responsables d'infrastructures logicielles critiques. Anthropic présente cette initiative comme une course contre la montre, soulignant que le délai entre la découverte d'une faille et son exploitation active s'est considérablement réduit, passant de plusieurs mois à quelques minutes seulement. L'objectif final affiché est de permettre un déploiement sécurisé et à grande échelle de modèles de la classe Mythos. Un rapport d’IBM et de Palo Alto Networks cité par Reuters indique que 67 % des 1 000 cadres interrogés affirment que leur organisation a été victime d'attaques assistées par l’IA au cours de l'année écoulée.Crédits d'utilisation pour les partenaires : 100, Dons aux groupes de sécurité open source : 4 Un différend avec le Pentagone pèse sur les ambitions d'AnthropicLe lancement de Project Glasswing intervient dans un contexte de bras de fer juridique entre Anthropic et le département de la Défense des États-Unis. D'après Handelsblatt et Engadget, Anthropic a refusé de supprimer les garde-fous de ses services d'IA qui empêchent leur utilisation dans des systèmes d'armes autonomes ou pour la surveillance de masse. En réaction, le Pentagone a classé Anthropic parmi les « risques pour la chaîne d'approvisionnement », un statut qui écarterait l'entreprise des contrats gouvernementaux américains. Anthropic a contesté cette désignation en justice et a obtenu, le 26 mars 2026, une injonction temporaire d'un juge fédéral contre la décision du département de la Défense. Ce conflit illustre les tensions croissantes entre les sociétés d'IA imposant des restrictions éthiques et les agences gouvernementales en quête d'un accès sans limites aux capacités de l'IA de pointe. Gizmodo souligne que le passage d'une posture où Claude Mythos Preview était jugé trop dangereux pour être rendu public à son déploiement dans des infrastructures critiques marque un tournant majeur dans la stratégie d'Anthropic.

Mentioned People

Sources: 19 articles