news-details
Digital World

Apple veut détecter les images d'abus sexuels sur enfant sur ses téléphones et serveurs

Des outils seront disponibles progressivement avec les prochaines mises à jour des systèmes d'exploitation sur les iPhone, iPad, iWatch et iMac aux Etats-Unis. Apple a dévoilé jeudi 5 août de nouveaux outils destinés à mieux repérer les images à caractère sexuel impliquant des enfants sur ses iPhone, iPad et son serveur iCloud aux Etats-Unis. L'annonce suscite les inquiétudes de défenseurs de la vie privée sur internet. Apple prévoit d'utiliser des outils de cryptographie pour comparer les photos téléchargées sur son serveur iCloud avec celles entreposées dans un fichier géré par le Centre national des enfants disparus et exploités (NCMEC). Quand une photo semble similaire à celle du fichier, Apple ira manuellement vérifier, désactivera le cas échéant le compte de l'utilisateur et enverra un rapport au Centre.  "Rupture significative par rapport aux protocoles de confidentialité" Le groupe assure qu'il n'a ainsi pas directement accès à l'image. Le groupe prévoit par ailleurs de scanner les images envoyées ou reçues via le service de messagerie iMessage sur les comptes d'enfants liés à un abonnement familial. L'assistant vocal Siri sera aussi formé à "intervenir" quand des utilisateurs font des recherches d'images pédopornographiques en les prévenant que ces contenus sont problématiques. Ces outils seront disponibles progressivement avec les prochaines mises à jour des systèmes d'exploitation sur les iPhone, iPad, iWatch et iMac aux Etats-Unis. Ces changements "marquent une rupture significative par rapport aux protocoles de confidentialité et de sécurité établis de longue date", a estimé le Centre pour la démocratie et la technologie (CDT). 

You can share this post!