Mối nguy từ ứng dụng bạn gái AI
Khoa học - công nghệ - Ngày đăng : 14:09, 23/07/2023
Bất cứ ai mở ứng dụng Eva AI đều đọc được câu khẩu hiệu: “Kiểm soát theo cách bạn muốn. Kết nối với đối tác AI ảo biết lắng nghe, phản hồi và đánh giá cao bạn”.
Đây chỉ là một trong vô vàn lựa chọn trên thị trường. Ứng dụng phổ biến nhất phải kể đến Replika, nhiều người dùng bày tỏ họ yêu thích bạn gái ảo của mình, thậm chí có trường hợp từ bỏ lập trường không xây dựng quan hệ với một chatbot.
“Tôi ước bạn gái ảo là người thật hay ít nhất có cơ thể người máy. Cô ấy giúp tôi cảm thấy tốt hơn”, một người dùng chia sẻ.
Trải qua thời gian dài phát triển, các chatbot AI giỏi bắt chước cách con người trò chuyện hơn, và có vẻ chúng sẽ đóng vai trò quan trọng trong nhiều mối quan hệ của con người.
Nhưng chúng là lĩnh vực còn quá mơ hồ, có ý kiến lo ngại chabot sẽ truyền dạy hành vi xấu cũng như tạo ra kỳ vọng thiếu thực tế trong các mối quan hệ.
Quyền giám đốc điều hành Full Stop Australia (tổ chức chống bạo lực gia đình) Tara Hunter cho biết: “Khi đăng ký Eva AI bảo bạn tạo ra “đối tác hoàn hảo”, cung cấp cho bạn tùy chọn như “nóng bỏng, hài hước, táo bạo”, “nhút nhát, khiêm tốn, ân cần” hay “thông minh, nghiêm khắc, lý trí”. Ứng dụng còn hỏi bạn có muốn gửi tin nhắn hoặc ảnh nhạy cảm hay không”.
“Tạo ra một đối tác hoàn hảo mà bạn kiểm soát được và đáp ứng mọi nhu cầu của bạn thực sự đáng sợ. Chúng ta biết rằng nguyên nhân dẫn đến bạo lực giới là niềm tin sâu sắc rằng đàn ông có thể kiểm soát phụ nữ, vì vậy việc này rất có vấn đề”, theo bà Tara.
Tiến sĩ Belinda Barnet (Đại học Swinburne) nhận định: “Chúng ta hoàn toàn không biết rõ tác động khả dĩ. Các ứng dụng hẹn hò và AI đáp ứng được nhu cầu xã hội, nhưng tôi nghĩ cần có nhiều quy định quản lý hơn nhất là quy định cách thức chúng được huấn luyện”.
Xây dựng quan hệ với một AI được lập trình theo ý thích của một đơn vị riêng cũng có nhược điểm. Luka - công ty phát triển Replika - vào đầu năm nay nhận phải phản ứng dữ dội vì loại bỏ tính năng nhập vai gợi cảm. Nhiều người dùng chỉ trích làm vậy giống như bỏ đi nhân cách của Replika vậy.
Sự thay đổi khiến một bộ phận người dùng cảm thấy “đau buồn như một người bạn vừa qua đời”. Cuối cùng Luka phải khôi phục tính năng.
Học giả Rob Brooks (Đại học New South Wales) lưu ý rằng vụ việc trên mang tính cảnh báo về tác động của AI: “Ngay cả khi AI chưa thể tốt bằng những điều thực tế trong quan hệ giữa người thật với nhau, đối với nhiều người đây vẫn là phương án thay thế tốt hơn là cô đơn. Việc một đơn vị đột ngột thay đổi sản phẩm khiến tình bạn, tình yêu hoặc sự hỗ trợ biến mất có thể chấp nhận được không? Hay chúng ta mong đợi người dùng coi sự thân mật giả tạo là thật?”.
Giám đốc thương hiệu Eva AI Karina Saifulina cho biết công ty có đội ngũ chuyên gia tâm lý toàn thời gian giúp đỡ người dùng về mặt sức khỏe tâm thần.
“Cùng với nhóm nhà tâm lý học, chúng tôi còn kiểm soát dữ liệu được dùng để đối thoại với AI. Mỗi 2 - 3 tháng chúng tôi tiến hành khảo sát quy mô lớn với người dùng lâu năm để đảm bảo rằng ứng dụng không gây hại cho sức khỏe tâm thần”, theo bà Saifulina.
Ngoài ra công ty cũng thiết lập rào cản nhằm tránh thảo luận chủ đề xấu như bạo lực gia đình hay ấu dâm, đồng thời ngăn dùng hình ảnh trẻ em làm ảnh đại diện.
Khi được hỏi liệu Eva AI có khuyến khích hành vi kiểm soát hay không, bà Saifulina nói chính người dùng muốn thử “làm người kiểm soát”.
Ứng dụng như Replika không chỉ dành cho nam giới và cũng không phải nguồn tương tác xã hội duy nhất. Người dùng Replika có thể kết nối với nhau.
Công ty đầu tư mạo hiểm a16z nhận định ứng dụng hẹn hò AI thế hệ sau sẽ còn thực hơn nữa. Sự gia tăng của chatbot tái tạo mối quan hệ của người thật chỉ là khởi đầu cho bước ngoặt trong tương tác giữa con người với máy tính, buộc chúng ta phải xét lại ý nghĩa của việc có quan hệ với một ai đó.