Apple เปิดเผยแผนการที่จะสแกน iPhone ของสหรัฐฯ เพื่อหาภาพการล่วงละเมิดทางเพศเด็ก โดยได้รับเสียงปรบมือจากกลุ่มคุ้มครองเด็ก แต่ทำให้เกิดความกังวลในหมู่นักวิจัยด้านความปลอดภัยบางคนว่า ระบบอาจถูกนำไปใช้ในทางที่ผิด รวมถึงรัฐบาลที่ต้องการสอดส่องพลเมืองของตน
เครื่องมือที่ออกแบบมาเพื่อตรวจจับภาพที่เป็นที่รู้จักของการล่วงละเมิดทางเพศเด็กที่เรียกว่า “neuralMatch” จะสแกนภาพก่อนที่จะอัปโหลดไปยัง iCloud หากพบภาพที่ตรงกัน ภาพจะถูกตรวจสอบโดยมนุษย์ หากยืนยันภาพอนาจารเด็กได้ บัญชีของผู้ใช้จะถูกปิดใช้งาน และข้อมูลจะถูกส่งไปที่ศูนย์แห่งชาติเพื่อเด็กหายและถูกเอาเปรียบ ระบบจะไม่ตั้งค่าสถานะภาพที่ไม่ได้อยู่ในฐานข้อมูลภาพอนาจารของเด็กของศูนย์ ผู้ปกครองที่ถ่ายรูปเด็กไร้เดียงสาในอ่างอาบน้ำไม่จำเป็นต้องกังวล
Matthew Green นักวิจัยด้านการเข้ารหัสชั้นนำของมหาวิทยาลัย Johns Hopkins เตือนว่า การละเมิดอื่น ๆ อาจรวมถึงการสอดส่องของรัฐบาลต่อผู้เห็นต่างหรือผู้ประท้วง “จะเกิดอะไรขึ้นเมื่อรัฐบาลจีนพูดว่า นี่คือรายการไฟล์ที่เราต้องการให้คุณสแกนหา”
เมื่อใช้มาตรการรักษาความปลอดภัยใหม่นี้ Apple ต้องดำเนินการอย่างสมดุลระหว่างการปราบปรามการหาผลประโยชน์จากเด็ก ในขณะที่ยังคงรักษาความมุ่งมั่นอย่างสูงในการปกป้องความเป็นส่วนตัวของผู้ใช้งานไปพร้อมกัน