Passer au contenu

Inspiré par Anthropic, OpenAI veut lancer un ChatGPT qui traque les failles de sécurité

OpenAI s’apprête à lancer un nouveau produit d’intelligence artificielle dédié à la cybersécurité. Réservé à un petit cercle de partenaires, ce modèle est destiné à répondre à Claude Mythos, l’IA d’Anthropic qui traque les failles de sécurité.

OpenAI est sur le point de finaliser un nouveau produit capable de raisonner sur des problèmes de cybersécurité. Selon une source citée par Axios, ce nouveau système d’IA sera apte à analyser des logiciels, des réseaux et des systèmes pour y détecter des vulnérabilités ou des comportements anormaux.

La fuite indique qu’OpenAI ne compte pas proposer l’IA au grand public. Pour des raisons de sécurité, l’outil sera réservé à un groupe restreint de partenaires, notamment des entreprises technologiques. Avec son nouveau modèle, OpenAI espère surtout aider les équipes de sécurité à repérer des failles dans des codes anciens ou mal documentés, mais la start-up veut à tout prix éviter que l’IA soit exploitée à des fins malveillantes. Entre de mauvaises mains, un outil de cette trempe pourrait être utilisé pour automatiser la recherche de failles exploitables dans des infrastructures critiques. Notez qu’il ne s’agit pas de Spud, un autre modèle d’OpenAI très attendu, mais dont les contours sont encore flous.

À lire aussi : Semaine de 32 h, confinement, redistribution des richesses… OpenAI dévoile son plan contre les menaces de l’IA

La même approche qu’Anthropic avec Claude Mythos

Avec ce nouveau projet, OpenAI cherche vraisemblablement à venir faire de l’ombre à Claude Mythos, l’IA d’Anthropic capable de débusquer et d’exploiter des failles de sécurité. En miroir de son rival, Anthropic a choisi de ne pas rendre Mythos accessible au grand public. L’IA générative est exclusivement réservée aux partenaires du « Project Glasswing », qui réunit des grands noms comme Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, Linux Foundation, Microsoft, et NVIDIA.

OpenAI a déjà testé cette approche avec son programme pilote lancé en février 2026, réservé à un nombre limité d’organisations. Appelé « Tr Access for », le programme donne accès à des modèles avancés de raisonnement en cybersécurité. Tout comme Anthropic, OpenAI distribue des crédits gratuits qui permettent d’utiliser les outils dédiés à la cybersécurité. Les deux géants de l’IA œuvrent à une industrie au sein de laquelle les technologies IA sont exploitées par les chercheurs et les professionnels de la défense, plutôt que par des cybercriminels.

À lire aussi : OpenAI lève 122 milliards de dollars pour « bâtir l’infrastructure même de l’intelligence artificielle »

OpenAI à l’assaut d’Anthropic

Pour rappel, la start-up de Sam Altman considère Anthropic comme l’un de ses principaux rivaux sur le marché de l’IA. Dans un mémo adressé à ses investisseurs, et intercepté par Bloomberg, OpenAI estime néanmoins que son rival évolue sur une échelle de calcul nettement plus faible que lui. La société estime avoir devancé Anthropic en augmentant « rapidement et de manière constante » sa capacité de calcul. Comme le laisse entendre le mémo, OpenAI tient vraiment à mettre de la distance avec Anthropic.

C’est d’ailleurs dans l’optique de se mesurer à Anthropic qu’OpenAI a annoncé récemment un virage stratégique. Au lieu de s’éparpiller à travers une panoplie de projets différents taillés pour le grand public, comme Sora ou encore Atlas, OpenAI a décidé de se concentrer, du moins pendant un temps, sur des outils taillés pour la productivité et le monde de l’entreprise. C’est vraisemblablement dans cette optique que la start-up a accéléré le développement de son IA taillée pour la recherche en cybersécurité.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

Source : Axios


Florian Bayard