Actualités

Apple pourrait analyser vos photos pour lutter contre la pédopornographie

Apple a présenté, jeudi 5 août, de nouveaux outils afin d’identifier plus efficacement les contenus pédopornographiques sur ses appareils et services. D’ici à la fin de l’année, l’entreprise introduira un nouvel outil qui scannera certaines images hébergées sur iCloud.

Apple annonce des mesures contre la pédopornographie

Apple a dévoilé jeudi 5 août de nouveaux outils destinés à mieux repérer les images à caractère sexuel impliquant des enfants sur ses appareils et services d’hébergement iCloud, suscitant les inquiétudes de défenseurs de la vie privée sur Internet.

D’ici à la fin de l’année, au moment du déploiement d’iOS 15 et des nouveaux systèmes d’exploitation pour ses iPad, ordinateurs Mac et montres connectées, l’entreprise introduira un nouvel outil qui scannera certaines images afin de déterminer si elles peuvent correspondre à des contenus pédopornographiques.

Deux nouveaux outils de surveillance seront en effet mis en place prochainement dans les systèmes d’Apple.

La vie privée en danger… ou pas ?

Tout d’abord, le premier outil analysera les photos envoyées ou reçues par un utilisateur mineur d’iMessage pour détecter des images pornographiques.

apple-child-safety

Dans un compte iCloud familial, si un enfant reçoit ou tente d’envoyer des photos sexuellement explicites, l’image sera alors floutée. De plus, un message d’avertissement sera affiché sur l’écran.

Enfin, l’autre outil analysera les photos sauvegardées sur iCloud pour détecter des images pédopornographiques. Dans les deux cas, cette analyse est faite en local sur l’appareil. Selon Apple, ce processus permet de préserver au maximum la confidentialité des données.

apple-vie-privee
Apple s’éloignerait-il de sa ligne directrice ?

Certes, Apple ne pourra pas voir directement ce qui est échangé, mais il n’y a plus de confidentialité totale sur la communication. Un tel système présente par ailleurs le risque qu’il soit un jour élargi à d’autres cibles. Au-delà des mineurs, pourquoi ne pas regarder si des images sont échangées entre adultes ? Et pourquoi ne pas analyser les textes pour détecter des criminels ou des opposants politiques ? Tout est possible, mais rien n’est transparent, car le modèle d’intelligence artificielle est une propriété privée d’Apple… C’est une boîte noire à laquelle il faut faire confiance. Sur Twitter, les réactions n’ont pas tardé…


Encore un peu de temps ? Découvrez comment ajouter votre pass sanitaire à l’Apple Wallet !

Photo de Anthony Boutavin

Anthony Boutavin

Etudiant en école d'ingénieur et passioné par la tech depuis toujours, je consacre mon temps à explorer les dernières avancées technologiques et à les partager à travers des tests et autres articles.

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page