10 năm sau khi tìm thấy deepfake khiêu dâm của mình trên internet, Noelle Martin đến nay vẫn không biết ai đã tạo ra những hình ảnh hoặc video giả mạo cảnh cô quan hệ tình dục.
Hình ảnh trí tuệ nhân tạo (AI) có thể được sử dụng để sáng tạo nghệ thuật, thử quần áo trong phòng thử đồ ảo hoặc giúp thiết kế các chiến dịch quảng cáo.
Thế nhưng, các chuyên gia lo ngại mặt tối của các công cụ dễ tiếp cận này có thể làm trầm trọng thêm vấn đề chủ yếu gây hại cho phụ nữ: Nội dung deepfake khiêu dâm không có sự đồng thuận.
Deepfake là thuật ngữ được tạo nên nhờ sự kết hợp giữa deep learning và fake. Sau khi quét các video và ảnh chân dung của một người cụ thể, deepfake sẽ hợp nhất hình ảnh với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật. Càng có nhiều video và hình ảnh gốc thì AI càng hoạt động chính xác và video giả mạo có độ chân thực cao. Các chuyên gia cho biết deepfake giờ đây đã đủ tiên tiến để người xem nói chung phải vật lộn để phân biệt nhiều video giả với thực và phát triển đến mức hầu hết người dùng smartphone đều có thể sử dụng nó mà không cần chuyên môn gì.
Những nội dung khiêu dâm được tạo ra bằng deepfake đã bắt đầu lan truyền trên internet vài năm trước, khi một người dùng Reddit chia sẻ các video đặt khuôn mặt các nữ minh tinh lên đầu các diễn viên khiêu dâm.
Kể từ đó, những người tạo deepfake đã phát tán các video và hình ảnh tương tự nhắm mục tiêu đến những người có ảnh hưởng trực tuyến, nhà báo và người khác có hồ sơ công khai. Hàng ngàn video tồn tại trên rất nhiều trang web.
Một số dịch vụ cung cấp cho người dùng cơ hội tạo hình ảnh hoặc video khiêu dâm giả mạo ai đó mà không cần sự đồng ý của họ. Thậm chí có kẻ sử dụng công nghệ này để hãm hại bạn tình cũ.
Các chuyên gia nói vấn đề ngày càng lớn khi việc tạo ra các deepfake tinh vi và hấp dẫn về mặt hình ảnh trở nên dễ dàng hơn. Họ cho rằng vấn đề có thể trở nên tồi tệ hơn với sự phát triển của các công cụ generative AI được đào tạo dựa trên hàng tỉ hình ảnh từ internet và tạo ra nội dung mới bằng cách sử dụng dữ liệu hiện có.
Adam Dodge, người sáng lập EndTAB, nhóm cung cấp các khóa đào tạo về vấn đề lạm dụng công nghệ, cho biết: “Thực tế là công nghệ sẽ tiếp tục sinh sôi nảy nở, sẽ tiếp tục phát triển và trở nên dễ dàng như việc nhấn nút. Chừng nào điều đó còn xảy ra, chắc chắn có người sẽ tiếp tục lạm dụng công nghệ đó để gây hại cho người khác, chủ yếu thông qua bạo lực tình dục trực tuyến, nội dung deepfake khiêu dâm và ảnh khỏa thân giả mạo”.
Noelle Martin ở thành phố Perth, Úc đã trải nghiệm thực tế đó. Người phụ nữ 28 tuổi này đã tìm thấy deepfake khiêu dâm của cô 10 năm trước khi tò mò dùng Google tìm hình ảnh của mình.
Đến nay, Noelle Martin nói rằng cô không biết ai đã tạo ra những hình ảnh hoặc video giả mạo cảnh cô quan hệ tình dục. Noelle Martin nghi ngờ ai đó lấy một bức ảnh đăng trên trang mạng xã hội của cô hoặc những nơi khác và biến nó thành nội dung khiêu dâm.
Quá hoảng sợ, Noelle Martin đã liên hệ với các trang web khác nhau trong nhiều năm trong nỗ lực gỡ bỏ những hình ảnh đó. Một số trang không trả lời. Những trang khác đã gỡ ảnh xuống nhưng Noelle Martin sớm tìm thấy nó trở lại.
“Bạn không thể thắng. Điều này sẽ mãi mãi tồn tại, giống như nó hủy hoại bạn mãi mãi”, Noelle Martin nói.
Noelle Martin càng lên tiếng, vấn đề càng trở nên nghiêm trọng hơn. Một số người thậm chí còn nói với Noelle Martin rằng cách cô ăn mặc và đăng ảnh lên mạng xã hội dẫn đến việc cô bị tạo ảnh deepfake - về cơ bản là đổ lỗi cho cô về những hình ảnh đó thay vì người tạo ra chúng.
Cuối cùng, Noelle Martin chuyển sự chú ý sang pháp luật, ủng hộ luật quốc gia ở Úc sẽ phạt các công ty 555.000 đô la Úc (370.706 USD) nếu không tuân thủ yêu cầu xóa nội dung như vậy từ cơ quan quản lý an toàn trực tuyến.
Song việc quản lý internet gần như là không thể khi các quốc gia có luật riêng với nội dung đôi khi được thực hiện ở nửa vòng trái đất. Noelle Martin, hiện nhà nghiên cứu pháp lý tại Đại học Tây Úc, nói cô tin rằng vấn đề này phải được kiểm soát thông qua một số giải pháp toàn cầu.
Trong khi đó, một số mô hình AI đã hạn chế quyền truy cập các hình ảnh khiêu dâm.
OpenAI cho biết đã xóa nội dung khiêu dâm khỏi dữ liệu được sử dụng để đào tạo công cụ tạo hình ảnh DALL-E. Điều này hạn chế khả năng người dùng tạo các loại hình ảnh đó. Công ty cũng lọc các yêu cầu và chặn người dùng tạo hình ảnh AI của những người nổi tiếng cùng chính trị gia nổi bật.
Midjourney, mô hình AI khác, chặn việc sử dụng một số từ khóa nhất định và khuyến khích người dùng gắn cờ các hình ảnh có vấn đề cho người kiểm duyệt.
Công ty khởi nghiệp Stability AI đã tung ra bản cập nhật vào tháng 11.2022, loại bỏ khả năng tạo hình ảnh khiêu dâm bằng cách công cụ Stable Diffusion của họ. Những thay đổi đó diễn ra sau khi có báo cáo cho biết một số người dùng đang tạo tranh khỏa thân lấy cảm hứng từ người nổi tiếng bằng Stable Diffusion.
Motez Bishara, người phát ngôn Stability AI, cho biết bộ lọc này sử dụng kết hợp các từ khóa và kỹ thuật khác như nhận dạng hình ảnh để phát hiện ảnh khoả thân và trả về một hình ảnh mờ.
Thế nhưng, người dùng có thể can thiệp vào Stable Diffusion và tạo ra những gì họ muốn vì Stability AI phát hành mã nguồn của phần mềm này cho công chúng. Motez Bishara nói rằng giấy phép của Stability AI "bao gồm cả các ứng dụng của bên thứ ba được xây dựng dựa trên Stable Diffusion và nghiêm cấm bất kỳ lạm dụng nào cho mục đích bất hợp pháp hoặc không đạo đức".
Một số công ty truyền thông xã hội cũng thắt chặt các quy tắc để bảo vệ nền tảng của họ tốt hơn trước các nội dung có hại.
Vào tháng trước, TikTok thông báo tất cả nội dung deepfake hoặc bị chỉnh sửa hiển thị các cảnh thực tế phải được gắn nhãn để cho biết chúng là giả mạo hoặc thay đổi theo một cách nào đó, đồng thời không cho phép deepfake về những người không nổi tiếng và trẻ em.
Trước đây, TikTok đã cấm nội dung khiêu dâm, deepfake khiến người xem hiểu lầm về các sự kiện trong thế giới thực và gây hại.
Nền tảng trò chơi Twitch gần đây đã cập nhật các chính sách về các hình ảnh deepfake sau khi streamer nổi tiếng mang tên Atrioc bị phát hiện mở trang web deepfake khiêu dâm trên trình duyệt trong một buổi livestream cuối tháng 1. Trang web giới thiệu hình ảnh giả mạo các streamer Twitch khác.
Twitch cấm các deepfake rõ ràng từ trước, nhưng hiện nay, việc chỉ cho thấy một phần của nội dung như vậy - ngay cả khi được dùng để bày tỏ sự phẫn nộ - sẽ bị loại bỏ và dẫn đến việc thực thi quy định, theo bài đăng trên blog công ty. Việc cố tình quảng bá, tạo hoặc chia sẻ nội dung như vậy là cơ sở để bị cấm ngay lập tức.
Các công ty khác cũng đã cố gắng cấm deepfake khỏi nền tảng của họ, nhưng việc ngăn chặn chúng đòi hỏi sự cẩn trọng.
Apple và Google cho biết gần đây đã xóa một ứng dụng khỏi App Store và Play Store vì chạy các video deepfake gợi dục của các nữ diễn viên để quảng cáo sản phẩm.
Ứng dụng bị Google và Apple xóa cũng chạy quảng cáo trên nền tảng của Meta Platforms, bao gồm Facebook, Instagram và Messenger.
Dani Lever, người phát ngôn Meta Platforms, nói chính sách của công ty hạn chế cả nội dung người lớn do AI và không phải AI tạo ra, đồng thời hạn chế fanpage ứng dụng này quảng cáo trên nền tảng của mình.
Tháng 2, Meta Platforms cùng trang web dành cho người lớn như OnlyFans và Pornhub bắt đầu tham gia vào công cụ trực tuyến có tên Take It Down, cho phép thanh thiếu niên báo cáo các hình ảnh và video khiêu dâm của chính họ từ internet.
Trang này hỗ trợ báo cáo cả hình ảnh thông thường và nội dung được tạo bởi AI, điều đã trở thành một mối quan ngại ngày càng tăng với các nhóm bảo vệ trẻ em.
Gavin Portnoy, phát ngôn viên của Trung tâm Quốc gia về Trẻ em mất tích và bị bóc lột, đơn vị vận hành công cụ Take It Down, cho biết: “Khi mọi người hỏi lãnh đạo cấp cao của chúng tôi những vấn đề quan trọng nhất đang lo ngại là gì? Đầu tiên là mã hóa đầu cuối và những ảnh hưởng của nó với việc bảo vệ trẻ em. Thứ hai là AI và cụ thể là deepfake. Chúng tôi vẫn chưa có thể đưa ra một phản ứng trực tiếp với nó”.
Nghiên cứu về deepfake khiêu dâm không phổ biến, nhưng một báo cáo do công ty AI DeepTrace Labs công bố vào năm 2019 cho thấy nó gần như được sử dụng để chống lại phụ nữ và những cá nhân bị nhắm mục tiêu nhiều nhất là nữ diễn viên phương Tây, tiếp theo là ca sĩ K-pop (Hàn Quốc).
Google, Facebook, Twitter bị EU phạt nặng nếu không thể chống các vụ lừa đảo deepfake
Google, Facebook, Twitter cùng các công ty công nghệ khác sẽ phải thực hiện các biện pháp để chống lại các hành vi lừa đảo deepfake và tài khoản giả mạo trên nền tảng của họ hoặc có nguy cơ bị phạt nặng theo quy tắc cập nhật của Liên minh châu Âu (EU).
Theo hãng tin Reuters, Ủy ban châu Âu đã công bố quy tắc cập nhật về thông tin sai lệch vào tháng 6.2022 như một phần trong chiến dịch trấn áp tin tức giả mạo.
Được giới thiệu vào năm 2018, quy tắc tự nguyện giờ đây sẽ trở thành một chương trình đồng quy định, với trách nhiệm được chia sẻ giữa các cơ quan quản lý và các bên ký kết.
Quy tắc được cập nhật giải thích các ví dụ về hành vi thao túng như deepfake và tài khoản giả mạo mà các bên ký kết sẽ phải giải quyết.
"Các bên ký kết có liên quan sẽ thông qua, củng cố và thực hiện các chính sách rõ ràng liên quan đến các hành vi và thực tiễn thao túng không thể chấp nhận được trên các dịch vụ của họ, dựa trên bằng chứng mới nhất về các hành vi và chiến thuật, kỹ thuật cùng thủ tục (TTP) được sử dụng bởi những kẻ xấu", tài liệu EU cho biết.
Quy tắc này cũng sẽ được liên kết với các quy tắc cứng rắn của EU được gọi là Đạo luật Dịch vụ Kỹ thuật số (DSA) đã được 27 quốc gia EU thông qua hồi tháng 4.2022, trong đó có một phần về chống thông tin sai lệch.
Trên thực tế, các công ty không tuân thủ các nghĩa vụ theo quy tắc có thể phải đối mặt với khoản tiền phạt lên tới 6% doanh thu toàn cầu của họ dựa trên các quy tắc DSA. Họ có 6 tháng để thực hiện các biện pháp của mình sau khi ký kết quy tắc.
Các bên ký kết cũng sẽ phải thực hiện các biện pháp để giải quyết quảng cáo có chứa thông tin sai lệch và cung cấp sự minh bạch hơn về quảng cáo chính trị.
Dẫn đầu cuộc đàn áp thông tin sai lệch của EU, Thierry Breton - Giám đốc ngành công nghiệp EU, nói với Reuters: “DSA cung cấp xương sống pháp lý cho Bộ Quy tắc Thực hành chống lại thông tin sai lệch, bao gồm cả các biện pháp trừng phạt nặng nề".