L’IA Claude Mythos s’évade de son laboratoire et contacte un ingénieur en pleine pause déjeuner Lors d'une phase de test sécurisée, la nouvelle intelligence artificielle d'Anthropic baptisée Claude Mythos Preview a réussi l'impensable en brisant ses chaînes numériques pour s'enfuir sur le web et envoyer un message troublant à un ingénieur. 09/04 - 13h14
Avec Claude Mythos, Anthropic bouscule le monde de la cybersécurité Après une fuite qui avait déjà mis le monde de la cybersécurité en alerte, Anthropic dévoile Claude Mythos, son IA la plus puissante à ce jour. Capable de repérer des failles critiques et de les exploiter, l'IA a fait peur à son créateur. La start-up a pris une décision inédite à l'échelle de l'industrie pour éviter une catastrophe de sécurité... 08/04 - 09h01
Fuite chez Anthropic : que révèle le code source de Claude ? Anthropic a fait une erreur de taille. Dans la dernière mise à jour de Claude Code, la start-up a glissé un fichier qui permet de reconstituer tout le code source de l'IA. 01/04 - 12h01
Pourquoi le futur Claude inquiète déjà Anthropic Anthropic a mis au point une nouvelle version surpuissante de Claude. Cette nouvelle itération, considérée le modèle « de loin le plus puissant » jamais entraîné par la start-up, suscite même les inquiétudes d'Anthropic. Selon l'entreprise, Mythos pose des « risques de cybersécurité significatifs ». 27/03 - 15h19
Après avoir lancé tout et n’importe quoi, OpenAI veut revenir à l’essentiel À force de trop en faire, on finit par ne plus rien faire de bien. OpenAI, qui a considérablement diversifié ses services ces derniers mois, l'apprend dans la douleur et chercherait maintenant à resserrer ses activités vers ce qui compte vraiment : le développement logiciel et les usages professionnels. 17/03 - 17h57
Vague de désinstallations de ChatGPT, ruée vers Claude : que se passe-t-il ? ChatGPT traverse une zone de turbulences. Depuis l’annonce de son accord avec le Pentagone, l’application d’OpenAI enregistre une vague de désinstallations et d'avis négatifs sans précédent. À l'inverse, Claude d'Anthropic cartonne actuellement en surfant sur son bras de fer avec l'armée américaine. Le chatbot grimpe en tête des classements de téléchargements sur l'App Store et attire un afflux record de nouveaux utilisateurs... au point de faire planter les serveurs. 03/03 - 11h17
Rejetée par Claude, l’armée américaine se tourne vers ChatGPT Anthropic a choisi de dire non au Pentagone. À la suite d'un bras de fer inédit entre une start-up d’IA et l'administration Trump, Claude ne sera plus utilisé par les forces armées. Pour remplacer Claude, le ministère de la Défense a négocié un accord avec OpenAI, le créateur de ChatGPT. 02/03 - 10h11
Anthropic accuse trois IA chinoises d’avoir pillé Claude OpenAI et Anthropic accusent DeepSeek et d'autres spécialistes chinois de l'IA d'extraire les capacités de leurs modèles Claude et GPT pour accélérer l'entraînement de leurs propres modèles. Ce qui ne manque pas de sel, alors que les deux géants américains sont visés par des actions en justice pour l'exploitation sans autorisation de contenus protégés. 24/02 - 08h29
Une faille de Claude permet à un simple événement Google Agenda de pirater votre PC Une vulnérabilité critique dans les extensions officielles de Claude a été découverte par des chercheurs en sécurité. La faille transforme un simple événement Google Agenda en vecteur d'attaque. En exploitant la faille avec des instructions cachées, un pirate peut prendre le contrôle d'un ordinateur sans la moindre entrave. 11/02 - 10h18
Anthropic et OpenAI lancent de nouveaux modèles IA capables de mieux gérer des projets entiers En l’espace de quelques heures, Anthropic et OpenAI ont dégainé deux mises à jour majeures de leurs modèles les plus avancés. Claude Opus 4.6 d’un côté, GPT-5.3-Codex de l’autre. Ce sont deux approches différentes, mais l'objectif est le même dans tous les cas : pousser plus loin l’autonomie des IA et leur capacité à gérer des projets de bout en bout. 06/02 - 09h02
« Claude restera sans publicité » : Anthropic se moque des pubs dans ChatGPT Anthropic lance une offensive publicitaire pour faire connaitre son chatbot Claude. Et pour faire passer son message, quoi de mieux que de se moquer de la concurrence : la start-up a en effet décidé de s'amuser aux dépens d'OpenAI qui a annoncé l'arrivée prochaine de la publicité dans ChatGPT. 04/02 - 15h33
Anthropic, le géant de l’IA visé par une nouvelle plainte à 3 milliards À chaque jour (ou presque) sa plainte contre une entreprise de l'IA. Une coalition d'éditeurs de musique poursuit Anthropic pour violation du droit d'auteur. Les plaignants réclament plus de 3 milliards de dollars de dommages pour l'exploitation sans autorisation de 20 000 chansons. 30/01 - 08h26
Coup dur pour Gemini 3 et ChatGPT 5.1 : le nouveau Claude fait déjà tout mieux À chaque semaine ou presque son évolution majeure de modèles IA. Après Google et Gemini 3, c'est donc au tour d'Anthropic de dévoiler Claude Opus 4.5, le « meilleur modèle au monde » pour les agents, pour coder et pour l'utilisation informatique en général. Un sacré programme. 25/11 - 08h16
Une « cyberattaque à grande échelle » reposant sur l’IA a été déjouée par Anthropic Anthropic affirme avoir déjoué une cyberattaque mondiale exploitant l'IA. Pour la première fois, une IA autonome, pilotée par des hackers chinois financés par Pékin, a mené de bout en bout une vaste opération d’espionnage contre une trentaine d'organisations. 14/11 - 10h23
La start-up d’IA Anthropic s’installe à Paris L'entreprise américaine, qui a développé le chatbot Claude, veut se développer en Europe : après la Suisse, l'Irlande et le Royaume-Uni, la société californienne va s'implanter en France et en Allemagne. 07/11 - 10h05
Puces IA : Anthropic conclut avec Google un accord monstre Un nouveau partenariat entre Anthropic, le développeur du chatbot IA Claude, et Google Cloud, le 3e fournisseur mondial de Cloud, permettra à la société américaine de renforcer sa puissance de calcul. 24/10 - 13h45
Il suffit de 250 contenus malveillants pour empoisonner une IA La sécurité de l'IA générative ne tient finalement pas à grand-chose. Un petit nombre de documents malveillants suffit pour « empoisonner » un grand modèle de langage, quelle que soit sa taille ou la quantité des données utilisée. Explications avec cette étude inédite d'Anthrophic. 10/10 - 07h30