Hôm 5.8, Apple cho biết sẽ triển khai hệ thống kiểm tra ảnh trên iPhone tại Mỹ trước khi được tải lên dịch vụ lưu trữ iCloud của mình. Mục đích là để đảm bảo ảnh tải lên không có nội dung lạm dụng tình dục trẻ em.

Apple quét ảnh tải từ iPhone lên iCloud để tìm nội dung lạm dụng tình dục trẻ em, gây tranh cãi

Sơn Vân | 06/08/2021, 07:44

Hôm 5.8, Apple cho biết sẽ triển khai hệ thống kiểm tra ảnh trên iPhone tại Mỹ trước khi được tải lên dịch vụ lưu trữ iCloud của mình. Mục đích là để đảm bảo ảnh tải lên không có nội dung lạm dụng tình dục trẻ em.

Apple sẽ trình làng công nghệ cho phép công ty phát hiện và báo cáo nội dung lạm dụng tình dục trẻ em cho cơ quan thực thi pháp luật theo cách mà họ cho rằng sẽ bảo vệ quyền riêng tư của người dùng.

Apple nói với trang TechCrunch rằng việc phát hiện hình ảnh lạm dụng tình dục trẻ em (CSAM) là một trong số các tính năng mới nhằm bảo vệ tốt hơn những trẻ em sử dụng dịch vụ của họ khỏi tác hại trực tuyến, bao gồm các bộ lọc để chặn các bức ảnh có khả năng khiêu dâm được gửi và nhận thông qua tài khoản iMessage của các bé. Một tính năng khác sẽ can thiệp khi người dùng cố gắng tìm kiếm các cụm từ liên quan đến CSAM thông qua Siri và Tìm kiếm.

Hầu hết các dịch vụ đám mây như Dropbox, Google, Facebook, Microsoft kiểm tra hình ảnh dựa trên cơ sở dữ liệu về ảnh lạm dụng tình dục trẻ em đã biết đến. Cụ thể là đã quét file người dùng để tìm nội dung có thể vi phạm điều khoản dịch vụ của họ hoặc có khả năng bất hợp pháp, chẳng hạn như CSAM. Thế nhưng, Apple từ lâu đã chống lại việc quét file của người dùng trên đám mây bằng cách cung cấp cho họ tùy chọn mã hóa dữ liệu trước khi chúng đến được máy chủ iCloud.

Apple cho biết NeuralHash, công nghệ phát hiện CSAM mới của hãng, thay vào đó hoạt động trên thiết bị của người dùng và có thể xác định xem họ có tải hình ảnh lạm dụng trẻ em đã biết đến lên iCloud hay không mà không giải mã ảnh cho đến khi đạt đến ngưỡng và một chuỗi kiểm tra để xác minh nội dung bị xóa.

Trước khi hình ảnh được tải lên iCloud Photos, các hash đó được làm khớp trên thiết bị với cơ sở dữ liệu về các hash đã biết về hình ảnh lạm dụng trẻ em, được cung cấp bởi các tổ chức bảo vệ trẻ em như Trung tâm Quốc gia về Trẻ em Mất tích & Bị bóc lột (NCMEC) và các tổ chức khác.

Apple sử dụng một nguyên tắc mật mã khác được gọi là chia sẻ bí mật ngưỡng cho phép nó chỉ giải mã nội dung nếu người dùng vượt qua ngưỡng hình ảnh lạm dụng trẻ em đã biết trong iCloud Photos của họ.

Đó là thời điểm Apple có thể giải mã các hình ảnh phù hợp, xác minh nội dung theo cách thủ công, vô hiệu hóa tài khoản của người dùng và báo cáo hình ảnh cho NCMEC, sau đó sẽ chuyển cho cơ quan thực thi pháp luật.

Apple nói quy trình này chú trọng đến quyền riêng tư hơn là quét các file trên đám mây vì NeuralHash chỉ tìm kiếm hình ảnh lạm dụng trẻ em đã biết chứ không phải ảnh mới. Apple nói rằng có một trong một nghìn tỷ khả năng xác định sai, nhưng có quy trình kháng nghị được thực hiện trong trường hợp một tài khoản bị gắn cờ nhầm.

Apple đã công bố chi tiết kỹ thuật trên trang web của mình về cách
NeuralHash hoạt động, được các chuyên gia mật mã xem xét và các tổ chức bảo vệ trẻ em khen ngợi.

Song bất chấp sự ủng hộ rộng rãi của các nỗ lực chống lạm dụng tình dục trẻ em, vẫn còn một yếu tố giám sát khiến nhiều người cảm thấy không thoải mái khi giao cho một thuật toán và vài chuyên gia bảo mật đang kêu gọi thảo luận công khai hơn trước khi Apple tung công nghệ này ra cho người dùng.

Một câu hỏi lớn là tại sao ngay bây giờ và không sớm hơn. Apple cho biết tính năng phát hiện CSAM bảo vệ quyền riêng tư của họ không tồn tại cho đến bây giờ. Thế nhưng, các công ty như Apple cũng phải đối mặt với áp lực đáng kể từ chính phủ Mỹ và các đồng minh của họ trong việc làm suy yếu hoặc mở cửa mã hóa được sử dụng để bảo vệ dữ liệu người dùng cho phép cơ quan thực thi pháp luật điều tra tội phạm nghiêm trọng. 

Theo Apple, tính năng mới tìm cách giải quyết các yêu cầu từ cơ quan thực thi pháp luật để giúp ngăn chặn lạm dụng tình dục trẻ em, đồng thời tôn trọng các thực tiễn về quyền riêng tư và bảo mật vốn là nguyên lý cốt lõi của thương hiệu công ty. Thế nhưng, một số người ủng hộ quyền riêng tư cho biết hệ thống này có thể mở ra cánh cửa để giám sát các bài phát biểu chính trị hoặc nội dung khác trên iPhone.

apple-quet-anh-tai-len-icloud-de-tim-noi-dung-lam-dung-tinh-duc-tre-em.jpg
Apple sắp trình làng công nghệ NeuralHash, quét ảnh tải từ iPhone lên iCloud để tìm nội dung lạm dụng tình dục trẻ em

John Clark, Giám đốc điều hành của NCMEC, cho biết trong một tuyên bố: “Với rất nhiều người sử dụng các sản phẩm của Apple, những biện pháp an toàn mới này có khả năng cứu trẻ em đang bị dụ dỗ trên mạng và những hình ảnh khủng khiếp đang được lưu hành trong nội dung lạm dụng tình dục trẻ em. Thực tế là quyền riêng tư và bảo vệ trẻ em có thể cùng tồn tại".

Apple cho biết ảnh chỉ được lưu trữ trên iPhone sẽ không bị kiểm tra và việc xem xét của con người trước khi báo cáo tài khoản cho cơ quan thực thi pháp luật nhằm đảm bảo bất kỳ ảnh trùng khớp nào là xác thật trước khi tạm ngưng tài khoản.

Apple cho biết những người dùng cảm thấy tài khoản của họ bị tạm ngưng không đúng cách có thể khiếu nại để yêu cầu khôi phục.

Trên Twitter, một số chuyên gia về quyền riêng tư và bảo mật bày tỏ lo ngại hệ thống cuối cùng có thể được mở rộng để quét iPhone một cách tổng quát hơn để tìm nội dung bị cấm hoặc bài phát biểu chính trị.

Matthew Green, nhà nghiên cứu bảo mật tại Đại học Johns Hopkins, cảnh báo rằng: "Apple đã gửi một tín hiệu rất rõ ràng. Theo ý kiến của họ, sẽ an toàn khi xây dựng hệ thống quét điện thoại của người dùng để tìm nội dung bị cấm".

Các nhà nghiên cứu quyền riêng tư khác như India McKinney và Erica Portnoy của Electronic Frontier Foundation đã viết trong một bài đăng trên blog rằng các nhà nghiên cứu bên ngoài có thể không kiểm tra kỹ xem Apple có giữ lời hứa chỉ kiểm tra một bộ nhỏ nội dung trên thiết bị hay không.

Động thái này là "cú sốc với những người dùng tin tưởng vào sự lãnh đạo của công ty về quyền riêng tư và bảo mật", cặp đôi viết.

Apple nói ban đầu NeuralHash sẽ ra mắt tại Mỹ, nhưng không cho biết liệu nó có được tung ra thị trường quốc tế hay không. Đến gần đây, các công ty như Facebook đã buộc phải tắt các công cụ phát hiện nội dung lạm dụng trẻ em của họ trên toàn Liên minh châu Âu sau khi hoạt động này vô tình bị cấm.

Apple cho biết tính năng này là tùy chọn về mặt kỹ thuật mà bạn không cần phải sử dụng iCloud Photos, nhưng sẽ là một yêu cầu nếu dùng nó.

Bài liên quan
Apple đàm phán với 2 công ty hàng đầu Trung Quốc về nguồn cung pin cho ô tô điện
Apple đang đàm phán giai đoạn đầu với 2 công ty Trung Quốc, CATL và BYD, về việc cung cấp pin cho ô tô điện của mình, theo nguồn tin từ 4 người có kiến ​​thức về vấn đề này.

(0) Bình luận
Nổi bật Một thế giới
Thủ tướng: Cơ chế, chính sách phù hợp sẽ nhân đôi, nhân ba sức mạnh
3 giờ trước Sự kiện
Trong chương trình kỳ họp thứ 8, sáng 23.11, các đại biểu Quốc hội thảo luận tại tổ về dự án Luật Quản lý và đầu tư vốn Nhà nước tại doanh nghiệp và dự án Luật Công nghiệp công nghệ số. Thủ tướng Phạm Minh Chính tham gia thảo luận tại tổ 8, gồm đại biểu Quốc hội các địa phương Vĩnh Long, Điện Biên, Kon Tum, Cần Thơ.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Apple quét ảnh tải từ iPhone lên iCloud để tìm nội dung lạm dụng tình dục trẻ em, gây tranh cãi