Mới đây, Apple thông báo rằng họ sẽ thử nghiệm hệ thống ngăn chặn lưu trữ hình ảnh lạm dụng tình dục trẻ em trên iPhone, iPad và iCloud.
Hệ thống này có tên gọi là "neuralMatch", có khả năng chuyển những hình ảnh lưu trữ trên điện thoại sang dạng khối dữ liệu gọi là Hash. Sau đó, "neuralMatch" sẽ so khớp khối dữ liệu đó với kho dữ liệu của Trung tâm quốc gia về trẻ em mất tích và bị bóc lột (NCMEC) xem đó có phải là hình ảnh lạm dụng tình dục trẻ em hay không.
Nếu hình ảnh đó được hệ thống nhận diện là hình ảnh lạm dụng tình dục trẻ em, Apple sẽ ngay lập tức gửi thông báo cho NCMEC xử lý và khoá tài khoản iCloud đó lại.
Apple cho biết rằng hệ thống này không ảnh hưởng tới quyền riêng tư của người dùng, họ luôn nhấn mạnh rằng quyền riêng tư là ưu thế sản phẩm của họ.
Apple cho biết trong thông báo bổ sung hệ thống "neuralMatch" của họ:
“Khi phát triển hệ thống này, Apple luôn quan tâm tới quyền riêng tư của khách hàng. Những bậc cha mẹ nếu có chụp ảnh con nhỏ của họ khi đang tắm, hay đang ở trong tình trạng thiếu vải thì cũng không cần phải lo lắng, vì hệ thống này chỉ quét và so sánh với dữ liệu hình ảnh lạm dụng tình dục trẻ em được lưu trữ ở NCMEC.”
Việc Apple bổ sung hệ thống này đã vấp phải những ý kiến trái chiều. Có những tổ chức bảo vệ trẻ em hoàn toàn ủng hộ hệ thống này, nhưng có những tổ chức khác cho rằng hệ thống này có thể vi phạm quyền riêng tư và sử dụng để theo dõi người dùng.