En miroir de votre compte Facebook, PayPal, Instagram ou encore votre compte bancaire, votre compte ChatGPT est progressivement devenu une cible pour les cybercriminels. Conscients que de plus en plus d’internautes communiquent des données sensibles à l’IA, les pirates tentent de plus en plus de prendre le contrôle de comptes OpenAI. Une étude de Group-IB a d’ailleurs recensé plus de 101 000 identifiants ChatGPT compromis mis en vente sur des marchés du dark web l’an dernier.
À lire aussi : Avec ChatGPT Images 2.0, OpenAI corrige le plus gros défaut de son générateur
Un partenariat entre OpenAI et Yubico
Pour permettre à ses utilisateurs de se protéger, la start-up s’est associée à Yubico, le fabricant des célèbres YubiKeys. Pour ceux qui ne connaissent pas, il s’agit de clés de sécurité qui servent à prouver que c’est bien vous qui vous connectez à vos comptes en ligne. Une fois qu’une clé est configurée, il n’est plus possible d’entrer sur le compte sans celle-ci.
Fabriquée par la société suédoise Yubico depuis 2008, la YubiKey se branche sur un port USB, ou se pose contre un smartphone par le biais de la technologie NFC, juste au moment de se connecter à un service en ligne. Un pirate qui n’a pas la clé entre les mains ne peut tout simplement pas se connecter à votre place. Utilisé par des géants comme Google, Microsoft ou encore des agences gouvernementales, c’est l’un des dispositifs d’authentification les plus fiables au monde.
Dans le cadre de ce partenariat, OpenAI et Yubico proposent aux utilisateurs de ChatGPT d’acheter un pack de deux clés YubiKey complémentaires pour sécuriser leur compte. Les deux sociétés ont mis en ligne un pack exclusif de clés USB, composé de la YubiKey C NFC, qui se connecte sans fil avec un smartphone, et de la YubiKey C Nano, taillée pour l’ordinateur.
Les utilisateurs peuvent également recourir à n’importe quelle autre clé de sécurité compatible avec le protocole FIDO. Les YubiKeys fonctionnaient déjà avec ChatGPT par le biais des standards FIDO, et OpenAI les utilisait déjà en interne. En vérité, le partenariat sert uniquement à mettre en avant cette solution de sécurité auprès des utilisateurs de ChatGPT, avec un pack intitulé « YubiKey – OpenAI Series ».
Un nouveau mode de sécurité avancé pour ChatGPT
La véritable nouveauté se trouve ailleurs. L’annonce du partenariat fait en effet suite au lancement du programme Advanced Account Security, un mode de sécurité optionnel. Ce mode accroît les mesures de sécurité autour d’un compte ChatGPT, à la demande de l’utilisateur. Le mode désactive les mots de passe classiques et les codes par SMS ou par e-mail aussi. Seules les passkeys ou les clés de sécurité physiques, comme les YubiKeys, permettent de se connecter au compte. Par ailleurs, la récupération de compte devient plus stricte. Si vous perdez votre clé et n’avez pas de clé de secours, OpenAI ne peut pas vous aider à récupérer votre compte… et les conversations sont perdues.
Par ailleurs, les sessions avec ChatGPT sont raccourcies. Vous serez déconnecté et reconnecté plus souvent pour éviter les vols de sessions. Enfin, vos conversations ne serviront plus à entraîner les modèles IA de la start-up. OpenAI destine ce mode de protection avancé aux profils à risque, comme les journalistes, les chercheurs, les élus, les avocats, et les dissidents politiques. Néanmoins, n’importe quel utilisateur inquiet pour sa sécurité en ligne peut choisir de l’activer. Notez qu’à partir du 1ᵉʳ juin 2026, les membres du programme Trusted Access for Cyber, qui peuvent accéder aux modèles d’IA de cybersécurité d’OpenAI, devront impérativement activer ce mode.
« Les clés de sécurité constituent l’un des meilleurs moyens de protéger les comptes contre le phishing, et Yubico a joué un rôle de premier plan pour rendre cette protection pratique et accessible. Nous avons intégré les YubiKeys comme élément standard de notre stratégie de protection des employés d’OpenAI, et grâce à la sécurité avancée des comptes, nous permettons aux utilisateurs de ChatGPT de choisir plus facilement ce même type de protection contre le phishing lorsqu’ils le jugent opportun », explique Dane Stuckey, chef de la sécurité chez OpenAI.
L’entreprise de Sam Altman souhaite vraisemblablement éviter que ses modèles capables de traquer des failles, comme GPT-5.4-Cyber, ne tombent entre de mauvaises mains. OpenAI veut éviter une débâcle similaire à celle de Mythos, la version de Claude taillée pour la cybersécurité. L’IA, dont l’accès est restreint par Anthropic à une série de partenaires, s’est récemment retrouvée entre les mains d’internautes.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

