La plateforme a annoncé mardi l’ouverture de sa technologie de détection aux agences de talents, sociétés de management et célébrités. CAA, UTA, WME et Untitled Management font partie des premiers partenaires, selon The Hollywood Reporter. Google présente l’initiative comme un bouclier contre les arnaques publicitaires. La suite du programme raconte une tout autre histoire.
Un Content ID du visage, déployé par étapes
La technologie scanne les nouvelles vidéos mises en ligne pour repérer des visages générés par IA. Si une correspondance est détectée, le participant inscrit au programme peut demander le retrait de la vidéo. Les célébrités n’ont pas besoin de posséder une chaîne YouTube pour en bénéficier.
L’outil a d’abord été testé en 2024 avec la CAA dans un programme pilote. Il s’est ensuite ouvert aux 4 millions de créateurs du Programme Partenaire YouTube en 2025. En mars 2026, les responsables politiques et journalistes y ont eu accès. L’industrie du divertissement constitue la dernière extension en date.
Le problème que Google prétend résoudre est réel. L’an dernier, un deepfake de Tom Hanks a circulé massivement sur la plateforme dans une publicité frauduleuse vantant un remède miracle contre le diabète. Ce type d’arnaque exploitant le visage de personnalités se multiplie à mesure que les outils de génération d’images progressent.
YouTube précise toutefois que la détection ne garantit pas le retrait. La parodie et la satire restent protégées, même quand elles visent des personnalités. En mars, la plateforme reconnaissait que le nombre de suppressions restait « très faible ». La détection vocale, elle, n’est pas encore disponible.
Protéger d’abord, monétiser ensuite
Content ID a transformé la violation de droits d’auteur en machine à revenus. 12 milliards de dollars reversés aux ayants droit depuis son lancement, dont 3 milliards pour la seule année 2024. En 2024, le système a traité 2,2 milliards de réclamations, dont 99 % de manière automatisée. Plus de 90 % des détenteurs de droits choisissent de monétiser les vidéos litigieuses plutôt que de les supprimer.
La détection de ressemblance suit le même schéma de déploiement. Mary Ellen Coe, directrice commerciale de YouTube, a confirmé que la monétisation des deepfakes figurait déjà dans les plans. La priorité actuelle reste selon elle « cette couche fondamentale de responsabilité et de protection ». La monétisation viendra après. Pour s’inscrire, les célébrités doivent fournir une pièce d’identité et un scan facial. Confier ses données biométriques à Google pour se protéger des abus hébergés par Google : le paradoxe ne semble gêner personne.
Le calendrier réglementaire donne un éclairage supplémentaire. L’article 50 de l’AI Act européen impose dès le 2 août 2026 des obligations de transparence sur les contenus générés par IA, deepfakes inclus. Aux États-Unis, le NO FAKES Act veut traiter le droit à l’image comme une propriété intellectuelle. Google ne devance pas ces régulations par générosité ou simple mise en conformité : il pose les rails qui lui permettront de rester l’intermédiaire incontournable. Protéger les visages aujourd’hui, prélever sa commission demain : chez Google, la bienveillance a toujours un modèle économique.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Source : The Hollywood Reporter

