Apple a annoncé hier son intention d’analyser les photos des utilisateurs afin de voir s’il n’y a pas de contenu pédopornographique. Les photos des utilisateurs seront comparées avec une base de données qui recense des images d’abus sexuels sur les enfants. En cas de contenu qui correspond, Apple préviendra les autorités et fermera le compte iCloud de l’utilisateur. Mais pour des chercheurs en sécurité, Apple va trop loin.

iPhone 12 mini Prise en Main

La fausse-bonne idée d’Apple ?

Matthew Green, chercheur en cryptographie à l’université Johns Hopkins, déclare que l’analyse des photos par Apple est une « très mauvaise idée ». Il explique que ce système pourrait à l’avenir s’étendre à l’analyse des photos chiffrées de bout en bout plutôt qu’au seul contenu présent sur iCloud. Pour les enfants, Apple met en place une fonction d’analyse distincte qui recherche les contenus sexuellement explicites directement dans iMessage, à savoir sa messagerie qui est chiffrée de bout en bout.

Un autre élément évoqué par le chercheur en sécurité est le système de hachage qu’Apple va utiliser pour comparer les photos avec la base de données. Matthew Green note que des utilisateurs pourraient envoyer des photos qui n’ont aucun rapport avec la pédopornographie et le hachage pourrait mal faire son travail, impliquant des faux positifs. Pour sa part, Apple assure que son mécanisme offre « un niveau de précision extrêmement élevé ».

Pour Matthew Green, Apple a ouvert la boîte de pandore. Il pense que les gouvernements ne vont pas hésiter à demander à scanner certains contenus d’utilisateurs.

Apple Analyse Photos iPhone Pedopornographie 1

Les chercheurs en sécurité sont d’accord entre eux

Alec Muffett, un chercheur en sécurité qui a travaillé chez Facebook, pense que l’analyse des photos d’utilisateurs par Apple est « un pas énorme en arrière pour la confidentialité individuelle ». Il ajoute : « Apple fait marche arrière sur la vie privée pour permettre 1984 ». Il fait référence à Big Brother du roman 1984 de George Orwell.

Ross Anderson, professeur d’ingénierie de la sécurité à l’université de Cambridge, partage un point de vue similaire. C’est une « idée absolument épouvantable » pour lui qui pourrait conduire à « une surveillance massive distribuée ».

La méthode d’Apple pour analyser les photos des utilisateurs crée donc un débat. Mais certains rappellent que les autres entreprises technologiques le font déjà, là encore pour lutter contre la pédopornographie. Facebook a commencé en 2011. Ce fut encore plus tôt pour Google, à savoir 2008.

L’analyse par Apple débutera cet automne avec iOS 15.