• La technologie
  • Équipement électrique
  • Autres
  • industrie-des-matériaux
  • Politique de confidentialité
  • À propos de nous
  • Nous contacter
Emplacement: Accueil / La technologie / Apple répond aux critiques du plan d'analyse CSAM avec une FAQ - dit qu'il empêcherait les gouvernements de renverser son système

Apple répond aux critiques du plan d'analyse CSAM avec une FAQ - dit qu'il empêcherait les gouvernements de renverser son système

Plateforme de services à guichet unique |
460

L'annonce d'Apple la semaine dernière selon laquelle il numérisera bientôt des photos sur les iPhones et iPads qui se synchronisent avec iCloud pour le matériel d'abus sexuel d'enfants (CSAM) a provoqué le recul de milliers de professionnels de la sécurité et de la confidentialité et une réponse de la société qui tente d'apaiser ses détracteurs.

Le biz iDevice a révélé deux

initiatives pour la sécurité des enfants

qui sont initialement déployés aux États-Unis et plus tard dans d'autres pays en fonction de l'approbation réglementaire.

L'un est un système pour alerter les enfants et leurs parents lorsque l'application Messages envoie ou reçoit des images jugées explicites (mais pas nécessairement illégales) par un algorithme d'apprentissage automatique sur l'appareil.

L'autre est un système pour numériser des photos sur des appareils iOS et iPadOS qui se synchronisent avec iCloud Photos pour voir si les hachages (identifiants) des images sur l'appareil correspondent à des hachages de matériel CSAM connu (illégal), qu'Apple utilisera pour signaler les comptes iCloud pour annulation et signalement au National Center for Missing and Exploited Children (NCMEC).

Apple a publié un résumé technique [

PDF

] de ses systèmes et a déclaré que, pour son programme CSAM, il n'y avait qu'"une chance sur un billion par an de signaler à tort un compte donné". Il a toutefois fourni

aucun moyen de vérifier

ce chiffre, selon le professeur de Princeton Jonathan Mayer.

S'est passé aussi bien que prévu

L'annonce [

PDF

] a suscité une réaction rapide sous la forme de

une lettre ouverte

s'opposer à cette décision en raison de son atteinte potentielle à la vie privée et à la sécurité.

"La voie actuelle d'Apple menace de saper des décennies de travail des technologues, des universitaires et des défenseurs des politiques pour que de solides mesures de protection de la vie privée soient la norme sur la majorité des appareils électroniques grand public et des cas d'utilisation", indique la lettre, qui répertorie actuellement plus de 6 000 signatures. "Nous demandons à Apple de reconsidérer son déploiement technologique, de peur qu'il n'annule cet important travail."

Des experts techniques, des défenseurs de la vie privée, des universitaires et d'autres ont passé le week-end dernier à débattre de la question via les médias sociaux et en ligne. Pratiquement tout le monde s'accorde à dire que le CSAM est un problème.

La question est de savoir si une entreprise qui a déclaré que "la vie privée est un droit de l'homme" - même si elle ne l'offre pas en Chine - devrait tenter de s'attaquer à la sécurité des enfants en exécutant son propre code de lecture - avec le consentement obtenu via la décision de utiliser iCloud Photos plutôt qu'une autorisation explicite - sur les appareils de ses clients.

Apple est sur le point de commencer à analyser les appareils des utilisateurs d'iPhone à la recherche de contenu interdit, prévient le professeur

Vous pouvez être distrait par la pandémie, mais pour votre information: les portes dérobées du panel du Sénat américain OK EARN IT Act

Ne vous y trompez pas, avertissent les experts, la loi américaine EARN IT contre la maltraitance des enfants pourrait réduire le cryptage au sol

Les modifications à venir concernant la confidentialité d'Android incluent la possibilité d'effacer l'identifiant publicitaire et la "section de sécurité" dans le Play Store.

Alex Stamos, directeur de l'Observatoire Internet de Stanford et ancien CSO de Facebook, a tenté de trouver un terrain d'entente entre ceux qui sont horrifiés par l'approche d'Apple et ceux qui donneraient la priorité à la lutte contre le CSAM sur toute autre considération.

"À mon avis, il n'y a pas de réponses faciles ici", a écrit Stamos dans un

Fil Twitter

, insistant sur le fait qu'il est acceptable d'avoir des opinions nuancées sur ces questions. "Je me trouve constamment déchiré entre le fait de vouloir que tout le monde ait accès à la confidentialité cryptographique et la réalité de l'ampleur et de la profondeur des dommages qui ont été rendus possibles par les technologies de communication modernes."

Il s'est dit heureux de voir Apple assumer enfin une part de responsabilité dans l'impact de sa plate-forme massive, mais il est également frustré par son approche. "Ils ont tous les deux fait avancer le ballon techniquement tout en nuisant à l'effort global pour trouver un équilibre politique."

Stamos a

spéculé

ce système pourrait permettre à Apple d'introduire un cryptage de bout en bout pour les sauvegardes iCloud en anticipant l'inévitable problème de CSAM qui surviendrait s'il le faisait. Apple n'avait cependant pas déclaré publiquement son intention de déployer un cryptage iCloud complet.

Tout jusqu'à Apple

Lundi, Eric Rescorla, CTO de Mozilla, a publié

une analyse technique du système d'Apple

cela suggère que la sécurité de l'effort d'analyse CSAM de l

'entreprise dépend du comportement d'Apple de manière digne de confiance. « Il est important de réaliser que rien dans le système n'empêche Apple de numériser des photos qui ne quittent jamais l'appareil ; ils ont simplement choisi de ne pas le faire », a-t-il écrit.

L'initiative "sécurité des enfants" d'Apple représente un changement majeur pour l'entreprise qui, il y a quelques années à peine, a cité l'importance de la "sécurité personnelle" en rejetant la demande du FBI de modifier son logiciel.

décrypter l'iPhone d'un suspect terroriste

.

Dans

une lettre ouverte

à ses clients en 2016, Apple a expliqué sa défense de la vie privée en déclarant : « nous pensons que le contenu de votre iPhone ne nous regarde pas ».

"Plus précisément, le FBI veut que nous fassions une nouvelle version du système d'exploitation de l'iPhone, en contournant plusieurs fonctionnalités de sécurité importantes, et que nous l'installions sur un iPhone récupéré au cours de l'enquête", a déclaré la société. "Entre de mauvaises mains, ce logiciel - qui n'existe pas aujourd'hui - aurait le potentiel de déverrouiller n'importe quel iPhone en possession physique de quelqu'un."

À partir des prochaines mises à jour du système d'exploitation iOS 15, iPadOS 15, watchOS 8 et macOS Monterey, le contenu de votre iPhone sera l'affaire d'Apple si vous synchronisez des images avec iCloud.

Les experts en sécurité craignent que le système d'Apple ne permette aux autorités gouvernementales d'exiger que l'entreprise ajoute des hachages d'images non CSAM à sa liste de détection pour dénicher les photos jugées inacceptables pour des raisons politiques, religieuses ou autres sans rapport avec la sécurité des enfants.

Il y a cinq ans, Apple a déclaré que l'on pouvait s'attendre à ce que le gouvernement exige ce type d'intervention technique dans le cadre d'un dossier juridique [

PDF

] s'opposant à la demande du FBI de modifier son logiciel.

"Ici, si Apple est obligé de créer un logiciel dans ce cas, d'autres organismes chargés de l'application de la loi demanderont des ordonnances similaires pour les aider à pirater des milliers d'autres téléphones, comme l'a confirmé le directeur du FBI, Comey, lorsqu'il a déclaré qu'il utiliserait" bien sûr "le All Writs Act. de 'revenir devant les tribunaux dans de futures affaires pour exiger qu'Apple et d'autres entreprises privées aident... à déverrouiller des appareils sécurisés'", ont expliqué les représentants légaux de l'entreprise.

Apple cèderait-il ?

Pourtant, dans la FAQ publiée lundi, Apple tente d'allier l'inquiétude que les autorités pourraient exiger l'accès à son système CSAM à d'autres fins de surveillance en déclarant que l'entreprise résisterait simplement. "Les gouvernements pourraient-ils forcer Apple à ajouter des images non CSAM à la liste de hachage ?" Apple demande, puis répond : "Apple refusera de telles demandes."

Les experts juridiques n'ont pas été impressionnés. "Donc, fondamentalement : tout ce qui se dresse entre les utilisateurs et les gouvernements exigeant [l'ajout] d'images non CSAM à la liste de hachage est le refus ferme d'Apple ?" a déclaré Elizabeth Joh, professeur de droit à UC Davis,

par Twitter

.

À laquelle Daphne Keller, Platform Regulation Director, Stanford Cyber ​​Policy Center, et ancienne Associate General Counsel chez Google,

a répondu

, "Parlant en tant que quelqu'un qui a plaidé et perdu sur cette question précise dans trois pays (Royaume-Uni, Allemagne, France), je suis confiant en disant que le refus ferme de filtrer pour de nouvelles choses au-delà du CSAM ne signifie pas grand-chose face à l'État Puissance."

En effet, lorsque la Chine a ordonné à Apple de faire respecter son interdiction des logiciels VPN, la société

respecté

.

Mais il existe une préoccupation plus fondamentale concernant l'utilisation par Apple des appareils de ses clients d'une manière qui pourrait être utilisée contre eux : la propriété et le contrôle. Ben Thompson, un analyste d'affaires qui écrit le

Blog Stratégie

, décrit l'approche d'Apple comme une erreur.

"L'appareil d'une personne doit être sa propriété, avec toutes les attentes de propriété et de confidentialité que cela implique ; les services cloud, quant à eux, sont également la propriété de leurs propriétaires, avec toutes les attentes de responsabilité sociétale et de respect des lois que cela implique ," il a écrit.

"C'est vraiment décevant qu'Apple se soit tellement accroché à sa vision particulière de la vie privée qu'il ait fini par trahir le pivot du contrôle de l'utilisateur : pouvoir avoir confiance que votre appareil est vraiment le vôtre." ®

Obtenir notre

Ressources techniques