Apple มีแผนที่จะอัพเดทคัดกรองรูปเปลือยเด็ก เข้ามาสู่ระบบ iCloud, Siri, Search ของ iOS 15, iPadOS 15 และ macOS Monterey ในช่วงสิ้นปีนี้ เพื่อควบคุมและลดปัญหา สื่อการล่วงละเมิดทางเพศเด็ก (CSAM - Child Sexual Abuse Material) โดยเทคโนโลยีนี้ จะทำงานในส่วนต่างๆ ทั้ง
ー iCloud : ซึ่งจะตรวจสอบภาพของผู้ใช้ก่อน ด้วยระบบ AI ก่อนอัพโหลดไปยัง ซึ่งทาง Apple รับประกันว่ามีความแม่นยำสูงมาก แต่ถ้าหากตรวจสอบผิดพลาด เข้าข่ายการละเมิด คุณสามารถยื่นคำร้องเพื่อ กู้คืนสถานะ Account ของเพื่อนๆ คืนได้
ー Siri และ Search : ระบบจะทำการตรวจสอบภาพผ่านระบบสื่อสารออนไลน์ ไม่ว่าจะเป็น "App พูดคุย", "ระบบค้นหา" และอื่นๆ โดยจะทำการเบลอภาพ (Image sensor) ที่เข้าข่ายการล่วงละเมิด และมีการแจ้งเตือน เมื่อผู้ใช้พยายามเปิดดู นอกจากนี้ผู้ปกครองสามารถตั้งค่าระบบ บนอุปกรณ์ของลูกหลาน ให้แจ้งเตือนไปยังอุปกรณ์ของท่าน เมื่อพวกเขา พยายามเปิดดูเนื้อหาเหล่านี้ได้อีกด้วย