Bức ảnh giả mạo về vụ nổ gần Lầu Năm Góc đã lan truyền nhanh trên mạng xã hội sáng 22.5, khiến chứng khoán Mỹ lao dốc trong thời gian ngắn.
Đây là ví dụ về một hình ảnh có thể do trí tuệ nhân tạo (AI) tạo ra tác động đến thị trường.
Chỉ sau 10 giờ sáng 22.5 (theo giờ New York), khi bức ảnh đang lan truyền, S&P 500 giảm khoảng 0,3% xuống mức thấp nhất của phiên giao dịch. Khi tin tức về bức ảnh là trò đùa được tiết lộ, chỉ số này nhanh chóng phục hồi trở lại. S&P 500 là chỉ số chứng khoán được dựa trên vốn hóa của 500 công ty đại chúng lớn nhất nước Mỹ.
Lần đầu tiên xuất hiện trên Facebook, bức ảnh giả cho thấy cột khói lớn mà người dùng mạng xã hội này tuyên bố là ở gần trụ sở Quân đội Mỹ ở bang Virginia.
Ảnh giả nhanh chóng lan truyền trên các tài khoản Twitter với hàng triệu người theo dõi, gồm cả mạng tin tức RT do chính quyền Nga kiểm soát và trang tin tức tài chính ZeroHedge (đã xác minh danh tính bằng cách đăng ký Twitter Blue).
Một nhân viên trực ở Lầu Năm Góc trả lời hãng tin Bloomberg rằng không có sự cố nào được báo cáo vào sáng 22.5.
Sở Cảnh sát Arlington (bang Virginia) cũng tweet: “Không có vụ nổ hoặc sự cố nào xảy ra tại hoặc gần khu đất của Lầu Năm Góc. Không có mối nguy hiểm tức thời nào với công chúng”.
Trước khi các nguồn chính thức phản hồi về bức ảnh giả, một số người đã chỉ ra rằng nó có thể được AI tạo ra.
Nick Waters, nhà nghiên cứu tại nhóm tình báo mã nguồn mở Bellingcat, cho biết trong cuộc phỏng vấn rằng "cú sốc" khi nghe tin đồn về một vụ nổ gần Lầu Năm Góc khiến ông xem xét kỹ bức ảnh.
"Hãy xem xét mặt tiền của tòa nhà, hàng rào và các rào cản đám đông. Không có hình ảnh, video hoặc người đăng bài là nhân chứng trực tiếp", Nick Waters viết.
Khi sự thật lộ ra, các tài khoản Twitter phát tán bức ảnh giả bắt đầu xóa các tweet hoặc đăng thông tin sửa lỗi. RT và ZeroHedge đã xóa các tweet có ảnh giả.
ZeroHedge cho biết bức ảnh đã được xác nhận là giả. Bloomberg Feed, tài khoản trả phí trên Twitter đăng ảnh giả này, đã bị đình chỉ vào sáng 22.5.
Người phát ngôn Bloomberg cho biết Bloomberg Feed và tài khoản Twitter có tên Walter Bloomberg (cũng đăng ảnh giả) không liên kết với hãng tin này.
Dù nguồn gốc của hình ảnh vẫn chưa rõ ràng, suy đoán rằng nó được tạo ra bởi AI làm sâu sắc thêm mối lo ngại rằng các công nghệ mới nổi giúp dễ dàng tạo ảnh và các nội dung khác để đẩy nhanh quá trình lan truyền thông tin sai lệch.
Trên Facebook, tài khoản đầu tiên đăng bức ảnh giả đã bị gắn nhãn “thông tin sai lệch”. Tài khoản này cũng đăng các bài khác liên quan đến nhóm thuyết âm mưu QAnon.
Facebook chặn truy cập vào các bài đó và cho biết bức ảnh đã được "kiểm tra bởi các nhà kiểm chứng độc lập".
Twitter và Meta Platforms (công ty sở hữu Facebook) không trả lời khi được Bloomberg đề nghị bình luận về vấn đề trên. RT cũng không phản hồi ngay lập tức.
Phát hiện hình ảnh giả do AI tạo ra
Hình ảnh giả do AI tạo ra đang tràn ngập mạng xã hội. Một số ảnh giả đã lan truyền thông tin sai lệch. Làm cách nào nhận biết ảnh thật và ảnh giả?
Bất kỳ ai sử dụng công cụ AI đều có thể tạo ra những bức ảnh giả trông như thật chỉ trong vài giây. Hình ảnh giả về các vụ bắt giữ những chính trị gia tầm cỡ quốc gia hoặc quốc tế có thể được người dùng xác minh khá nhanh, nếu kiểm tra các nguồn truyền thông uy tín. Song có những ảnh khó xác minh hơn, chẳng hạn những người không quá nổi tiếng, theo chuyên gia AI Henry Ajder.
Theo Henry Ajder, mọi hình ảnh cuộc sống đều có thể làm giả để lan truyền thông tin sai lệch. Ví dụ, một trận động đất nghiêm trọng được cho là đã làm rung chuyển khu vực Tây Bắc Thái Bình Dương của Mỹ và Canada vào năm 2001. Nhưng trận động đất này thực sự chưa bao giờ xảy ra và hình ảnh chia sẻ trên ứng dụng Reddit đều do AI tạo ra.
Thế nhưng, các công cụ AI vẫn mắc lỗi. Các chương trình tạo ra hình ảnh bằng AI như Midjourney, Dall-E và DeepAI đều có vấn đề, đặc biệt là với con người.
Trang DW đã tổng hợp một số gợi ý, giúp người dùng đánh giá hình ảnh là giả mạo hay không.
Phóng to và nhìn kỹ
Gợi ý đầu tiên là hãy nhìn kỹ và tìm hình ảnh ở độ phân giải cao nhất có thể, sau đó phóng to các chi tiết. Bạn phóng to hình ảnh để thấy những điểm không nhất quán và lỗi mà thoạt nhìn có thể không bị phát hiện.
Tìm nguồn ảnh
Nếu không chắc một hình ảnh là thật hay do AI tạo ra, bạn hãy thử tìm nguồn của nó. Hãy tải hình ảnh lên các dịch vụ như Google Image Reverse Search, TinEye hay Yandex, bạn có thể tìm thấy nguồn gốc ban đầu của hình ảnh. Kết quả tìm kiếm cũng có thể liên kết đến các phương tiện truyền thông có uy tín cung cấp thêm ngữ cảnh.
Tỉ lệ cơ thể
Không có gì lạ khi hình ảnh do AI tạo ra có sự khác biệt về tỉ lệ. Bàn tay có thể quá nhỏ hoặc ngón tay quá dài, hoặc đầu và chân không khớp với phần còn lại của cơ thể.
Vấn đề ở bàn tay, tai, răng
Bàn tay là nguyên nhân chính gây ra lỗi trong ứng dụng tạo hình ảnh bằng AI của Midjourney hoặc DALL-E. Người trong ảnh thường có 6 hoặc 4 ngón tay.
Các lỗi phổ biến khác là người có quá nhiều răng, gọng kính bị biến dạng kỳ lạ hoặc tai có hình dạng không thực tế. Các bề mặt phản chiếu, chẳng hạn như tấm che mũ bảo hiểm, cũng gây ra vấn đề cho các chương trình AI.
Tuy nhiên, Henry Ajder cảnh báo phiên bản mới Midjourney đang tốt hơn trong việc tạo ra các bàn tay. Điều đó có nghĩa là về lâu dài, người dùng sẽ không thể phát hiện ra loại lỗi này.
Hình ảnh quá đẹp, quá mịn
Midjourney tạo ra nhiều hình ảnh đẹp đến khó tin. Hãy theo dõi bằng trực giác: Hình ảnh những con người hoàn hảo như vậy thực sự có thật không?
Chuyên gia Andreas Dengel thuộc Trung tâm nghiên cứu AI của Đức nói với DW: “Các khuôn mặt giả quá thuần khiết, quần áo cũng khá hài hòa".
Da của người trong ảnh AI thường mịn màng và không có bất kỳ khuyết điểm nào, thậm chí tóc và răng của họ cũng hoàn hảo. Đây thường không phải con người trong cuộc sống thực.
Nhiều bức ảnh còn mang tính nghệ thuật, bóng bẩy, long lanh mà ngay cả những nhiếp ảnh gia chuyên nghiệp cũng khó đạt được khi chụp trong studio.
Nền ảnh
Nền của bức ảnh thường có thể tiết lộ liệu nó có bị làm giả hay không, chẳng hạn các vật thể có thể bị biến dạng. Trong một số trường hợp, các ứng dụng AI sao chép người và đồ vật rồi sử dụng chúng hai lần. Không hiếm trường hợp hậu cảnh của ảnh AI bị mờ.