Apple vừa tự đưa mình vào thế khó

Apple thông báo sẽ quét iPhone, iPad để tìm hình ảnh lạm dụng trẻ em. Tuy nhiên, họ phải đối mặt với vấn đề quyền riêng tư và bảo mật thông tin người dùng.

Hôm 5/8, Apple thông báo triển khai công cụ bảo vệ hệ thống mới, ngăn chặn lạm dụng tình dục trẻ em bất hợp pháp (CSAM). Hãng bắt đầu thử nghiệm quét toàn bộ hình ảnh trên iPhone, iPad đã tải lên iCloud để truy tìm vi phạm.

Theo Apple, công cụ này có tính riêng tư cao hơn so với hệ thống của Google và Microsoft. Nó chỉ sử dụng phần mềm được cung cấp thông qua bản cập nhật iOS mới. Dữ liệu lưu trữ ngay trên iPhone của người dùng. Apple khẳng định hoàn toàn không có mối liên hệ nào đến máy chủ của hãng.

Apple dự định triển khai công cụ quét ảnh trên iPhone, iPad để bảo vệ trẻ em. Ảnh: USA Today.

Tuy nhiên, những người quan tâm đến quyền riêng tư vẫn lo ngại hệ thống này sẽ bị sử dụng để tìm hình ảnh với mục đích khác.

Cam kết của Apple

Trong tài liệu đăng trên trang web hôm 8/8, Apple khẳng định họ không bao giờ thêm hình ảnh không phải CSAM vào “danh sách đen” theo yêu cầu của bất kỳ bên nào.

“Apple sẽ từ chối mọi yêu cầu như vậy. Công cụ được xây dựng chỉ để phát hiện hình ảnh CSAM lưu trữ trong iCloud, đã được thẩm định bởi các chuyên gia tại NCMEC và những nhóm bảo vệ trẻ em khác”, hãng nêu trong tài liệu.

Đã có một số yêu cầu từ phía cơ quan quản lý gửi đến Apple, tuy nhiên, gã khổng lồ xứ Cupertino kiên quyết bác bỏ vì điều đó làm suy giảm quyền riêng tư của người dùng. “Chúng tôi sẽ tiếp tục từ chối họ trong thời gian tới”, Apple khẳng định.

Về mặt kỹ thuật, Apple cho biết hệ thống này mạnh hơn và riêng tư hơn đáng kể so với các công cụ tương tự mà hãng đã tìm hiểu trước khi bắt tay vào phát triển.

Không giống như những hệ thống hiện tại, chạy trên máy chủ đám mây và giữ kín thông tin với các nhà nghiên cứu bảo mật, công cụ của Apple có thể được kiểm tra thông qua việc phân phối trên iOS.

Bằng cách chuyển một số quá trình xử lý lên thiết bị của người dùng, hãng có thể củng cố khả năng bảo mật, chẳng hạn như tìm các kết quả CSAM mà không cần chạy phần mềm trên máy chủ để kiểm tra từng bức ảnh. Ngoài ra, công cụ này chỉ quét những ảnh đã tải lên iCloud, bỏ qua các thư viện cá nhân trong máy.

Lo ngại về quyền riêng tư

Dù Apple đưa ra những cam kết rõ ràng về việc bảo vệ quyền riêng tư của người dùng, vẫn có không ít lo ngại xoay quanh khả năng họ không thể từ chối yêu cầu của các chính phủ.

Nhiều vấn đề về quyền riêng tư được đặt ra xung quanh công cụ mới. Ảnh: Benzinga.

Theo CNBC, CEO Tim Cook từng cho biết Apple sẽ tuân thủ luật pháp ở mọi quốc gia nơi công ty hoạt động kinh doanh. Do đó, họ sẽ rơi vào tình trạng “tiến thoái lưỡng nan” khi các nước yêu cầu bổ sung thêm những hình ảnh khác bên cạnh CSAM.

Apple tự xem mình là công ty đi đầu trong vấn đề bảo vệ quyền riêng tư của người dùng, ngay cả khi phải đối mặt với luật pháp. Vào năm 2016, hãng ra tòa để bảo vệ hệ thống mã hóa trên thiết bị trong cuộc điều tra về một kẻ xả súng hàng loạt.

Tuy nhiên, áp lực mà hãng phải đối mặt ngày càng lớn hơn. Có nhiều hoạt động tội phạm sử dụng công cụ bảo mật trên iPhone để mã hóa tin nhắn, dữ liệu, khiến cơ quan thực thi pháp luật không thể thu thập.

Ngoài ra, hệ thống mới cũng vấp phải nghi ngờ về khả năng Apple lén lút sử dụng dữ liệu người dùng cho mục đích thâm nhập thị trường tài chính cá nhân và chăm sóc sức khỏe.

Các nhà phân tích lo ngại hệ thống sẽ quét cả ảnh riêng tư trên iPhone, thay vì chỉ kiểm tra dữ liệu đã được tải lên máy chủ. Các công ty khác thường chỉ quét ảnh được lưu trữ trên đám mây của họ.

Người dùng lên tiếng

Theo The Hill, hàng nghìn người đã ký vào bức thư ngỏ phản đối kế hoạch quét iPhone, iPad để tìm hình ảnh lạm dụng tình dục trẻ em.

Nhiều người phản đối dự định quét toàn bộ ảnh trên iCloud của Apple. Ảnh: AP.

Tính đến chiều 9/8, thư ngỏ được công khai vào cuối tuần trước đã nhận được chữ ký của liên minh gần 30 tổ chức và hơn 6.600 cá nhân, trong đó có chuyên gia bảo mật, nhà nghiên cứu về quyền riêng tư và pháp lý.

Các tổ chức, cá nhân này bày tỏ lo ngại xung quanh chính sách mới của Apple về việc quét ảnh được lưu trữ trên iPhone, iPad để tìm CSAM, sau đó báo cáo cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị lợi dụng của Mỹ, đồng thời khóa tài khoản người dùng vi phạm.

“Lạm dụng trẻ em là một vấn đề nghiêm trọng và nỗ lực chống lại nó mang mục đích tốt, nhưng công cụ của Apple có khả năng phá hỏng các biện pháp bảo vệ quyền riêng tư cho tất cả người dùng”, bức thư có đoạn viết.

Họ đặc biệt lo ngại dữ liệu này không được mã hóa đầu cuối, đồng thời công cụ kiểm tra của Apple có thể xâm hại đến thông tin cá nhân của người dùng trong quá trình quét thiết bị để tìm CSAM.

Các bên ký kết thư ngỏ yêu cầu Apple tạm dừng chính sách mới và phải “tái khẳng định cam kết của họ đối với việc mã hóa đầu cuối và bảo vệ quyền riêng tư của người dùng”.

Lý do Apple chọn logo táo khuyết Là một trong những logo được biết đến nhiều nhất trên thế giới, biểu tượng quả táo khuyết cũng là một trong những bí mật lớn của Apple.

Nguyễn Hiếu

Theo CNBC và The Hill

To Top