Apple affichera TOUTES les photos téléchargées dans le cloud. Bon but, mais la fin de la vie privée et « Big Brother » arrive

Comme le confirme un communiqué de presse, Apple a publié un article détaillant comment il envisage d'introduire des fonctionnalités de protection de l'enfance dans trois domaines : dans les nouveaux outils à la disposition des parents, en scannant les photos iPhone et iCloud, et dans les mises à jour Siri et Research.

Les fonctionnalités qu'Apple lancera arriveront plus tard cette année avec des mises à jour pour iOS 15, iPad OS 15, watchOS 8 et macOS Monterey.

« Ce programme est ambitieux et la protection des enfants est une responsabilité importante. Ces efforts évolueront et s'étendront au fil du temps », écrit Apple.

L'une des principales nouveautés est que l'application de messagerie comprendra de nouvelles notifications qui alertent les enfants et leurs parents lorsque les premiers sont sur le point de recevoir des photos sexuellement explicites. Ces images arriveront également floues et il faudra donner son consentement pour pouvoir les voir.

De plus, les parents seront avertis si le mineur essaie d'envoyer des photos sexuellement explicites.

« Messages utilise l'apprentissage automatique sur l'appareil pour analyser les images jointes et déterminer si une photo est sexuellement explicite. La fonctionnalité est conçue pour qu'Apple n'ait pas accès aux messages », explique Apple. De cette façon, théoriquement, il y aurait une protection de la vie privée.

Mais c'est une autre innovation qui fait douter : Apple prévoit également d'ajouter la détection CSAM, qui signifie Child Sexual Abuse Material. Fait référence au contenu qui décrit des activités sexuellement explicites impliquant un enfant. Le nouveau système permettra à Apple de détecter les images CSAM connues stockées dans iCloud Photos et de les signaler au National Center for Missing and Exploited Children (NCMEC).

Apple affirme que sa méthode de détection CSAM est "conçue en gardant à l'esprit la confidentialité des utilisateurs". Au lieu de numériser des images vers le cloud, le système correspondra à l'appareil à l'aide d'une base de données fournie par le NCMEC et d'autres organisations de sécurité des enfants. Apple transforme ensuite cette base de données en un ensemble illisible de hachages qui sont stockés en toute sécurité sur les appareils des utilisateurs.

Quelle que soit la manière dont vous souhaitez mettre l'analyse d'images sur iCloud, cela nécessite qu'elles soient vues, et peut-être pas seulement par un logiciel, également car, aussi précise qu'une analyse d'IA puisse être, cependant, un filtre humain final est nécessaire. Même si en cachant tout sous une belle "Politique de confidentialité", nous aurons un logiciel ou une personne qui lira les photos enregistrées sur iCloud, même si c'est à bon escient. Mais si, demain, à ces objectifs, certes éthiquement pertinents, s'en ajoutaient d'autres ? Pas un petit problème. Faites-vous confiance à la confidentialité des données enregistrées sur le cloud ?


Télégramme
Grâce à notre chaîne Telegram, vous pouvez rester à jour sur la publication de nouveaux articles de Scénarios économiques.

Inscrivez-vous maintenant


Esprits

L'article Apple affichera TOUTES les photos téléchargées sur le cloud. Bon objectif, mais la fin de la vie privée et le "Big Brother" vient de ScenariEconomici.it .


Cet article est une traduction automatique de la langue italienne d’un article publié sur le site Scenari Economici à l’URL https://scenarieconomici.it/apple-visionera-tutte-le-foto-caricate-sul-cloud-finalita-giusta-ma-fine-della-privacy-e-arriva-il-grande-fratello/ le Fri, 06 Aug 2021 06:00:48 +0000.