Passer au contenu

Apple déploiera de nouveaux outils dans iOS 15 pour protéger les enfants contre les prédateurs sexuels

La firme de Cupertino vient d’annoncer la mise en place prochaine de nouvelles mesures visant à protéger les enfants. iOS 15, iPadOS 15, macOS Monterey et WatchOS 8 pourront bientôt détecter les images pédopornographiques et bloqueront automatiquement l’affichage d’images sexuellement explicites dans Messages.

Apple vient d’annoncer la mise en place prochaine de nouveaux outils visant à renforcer la protection de enfants. Ces nouvelles fonctions seront intégrées dans iOS 15, iPadOS 15, WatchOS 8 et macOS Monterey et seront disponibles aux États-Unis seulement dans un premier temps.

Les « nudes » et autres « dickpics » automatiquement floutées

Parmi ces nouveaux outils, Apple prévoit d’intégrer dans son application Messages une fonction capable de détecter les contenus sexuellement explicites envoyés ou reçus dans la messagerie. Lorsqu’un enfant recevra du contenu inapproprié, Messages floutera automatiquement l’image et lui affichera un avertissement.

Si l’enfant décide de consulter une image bloquée par Messages, ou s’il tente d’envoyer une photo sexuellement explicite, les parents seront immédiatement avertis. Pour détecter ces images, Apple a intégré un système d’analyse utilisant du Machine Learning, exécuté localement dans l’application de messagerie.

Détection automatique des images pédopornographiques

Pour aller encore plus loin, Cupertino a prévu de mettre en place un autre outil visant cette fois-ci à combattre la diffusion de contenus pédopornographiques en ligne. iOS 15 et iPadOS 15 permettront à Apple de détecter ces contenus dès lors qu’ils sont stockés sur iCloud, ce qui permettra à la firme de dénoncer les faits aux instances compétentes.

Pour s’assurer que la vie privée de ses utilisateurs n’est pas bafouée, le système qu’Apple va mettre en place ne scannera pas directement les images sur le cloud, mais réalisera une analyse locale sur l’appareil. iOS et iPadOS n’analyseront pas les images, mais se contenteront de scanner les « hashes », comprenez les empreintes numériques des images enregistrées sur l’appareil. Ces empreintes seront ensuite comparées avec celles d’images pédopornographiques connues, que les autorités et les organismes de protection de l’enfance ont référencées dans une base de données dédiée. Aucune image n’est lisible par Apple qui explique « transformer cette base de données en un ensemble de hashes illisibles stockés localement sur l’appareil de l’utilisateur ».

À découvrir aussi en vidéo :

 

Lorsqu’une correspondance est détectée, l’appareil génère un ticket cryptographique qui encode le résultat de la correspondance et chiffre d’autres données liées à l’image avant de l’uploader sur iCloud. Cupertino se charge ensuite d’analyser manuellement les rapports pour confirmer s’il existe bien une correspondance. Le cas échéant, Apple désactive le compte de l’utilisateur et envoie un rapport aux autorités.

Siri, toujours de bon conseil

Pour compléter son artillerie, Apple prévoit d’utiliser Siri pour afficher des conseils afin d’aider parents et enfants qui auraient à faire à des contenus inappropriés.

Ils pourront, par exemple, demander à l’assistant vocal d’Apple de l’aide pour dénoncer des faits de pédophilie ou signaler des contenus pédopornographiques, et auront accès à toutes les ressources nécessaires pour obtenir une réponse à leur requête. Siri affichera également des avertissements dès lors qu’un utilisateur lui soumettra une requête inappropriée, liée à du contenu sexuellement explicite mettant en scène des enfants.

Source : Apple

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Geoffroy Ondet