Nghiên cứu gần đây cho thấy trí tuệ nhân tạo (AI) tạo sinh đã sẵn sàng được áp dụng vào cuộc chiến chống tội phạm mạng, giúp đảo ngược một số hành vi gian lận do AI gây ra.
Hơn 83% các tổ chức cho biết có ý định sử dụng AI tạo sinh để chống lại các nỗ lực gian lận trong hai năm tới, theo một báo cáo từ ACFE (Hiệp hội các nhà kiểm tra gian lận được chứng nhận) và SAS (hãng cung cấp giải pháp phân tích dữ liệu).
AI tạo sinh là một loại AI có mục tiêu chính là tạo ra thông tin mới, thường thông qua quá trình học máy và học sâu. Loại AI này không chỉ giải quyết các nhiệm vụ cụ thể, mà còn có khả năng tạo ra dữ liệu, văn bản, hình ảnh, âm thanh, video và nhiều loại thông tin khác.
Một ví dụ nổi tiếng về AI tạo sinh là mô hình ngôn ngữ lớn GPT của OpenAI, làm nền tảng cho ChatGPT hoạt động. GPT có khả năng tạo ra văn bản mới, dựa trên dữ liệu mà nó đã được huấn luyện trước đó.
AI tạo sinh có thể được sử dụng trong nhiều ứng dụng, gồm tạo văn bản, hình ảnh, âm thanh video và thậm chí giải quyết vấn đề trong lĩnh vực nghệ thuật sáng tạo và thiết kế.
Mason Wilder, Giám đốc nghiên cứu ACFE, nói: “AI tạo sinh đã đạt được những bước tiến lớn vài năm qua, nên không có gì ngạc nhiên khi các tổ chức đang tích hợp công nghệ này vào các sáng kiến chống gian lận của họ. Đến thời điểm hiện tại, chúng ta vẫn đang tìm hiểu tất cả ưu điểm và nhược điểm của việc sử dụng công nghệ này”.
Tuy nhiên, báo cáo cũng cho thấy có những thách thức lớn trong việc triển khai các giải pháp AI tạo sinh, với 60% người tham gia khảo sát cho rằng độ chính xác đầu ra của công nghệ này là mối quan tâm hàng đầu.
Theo cuộc khảo sát, những trở ngại lớn khác với việc áp dụng AI chống gian lận gồm rủi ro về bảo mật và dữ liệu, các mối lo ngại về quy định cũng như giới hạn kỹ năng của nhân viên.
Đây là phần thứ ba trong loạt báo cáo về công nghệ chống gian lận của các nhà nghiên cứu, được khởi xướng vào năm 2019. Báo cáo mới nhất dựa trên cuộc khảo sát gần 1.200 tổ chức thành viên ACFE qua hơn 22 ngành, gồm ngân hàng, y tế, sản xuất và khai thác mỏ.
Sự nổi lên của ChatGPT như một công cụ AI tạo sinh mạnh mẽ đã mang lại cơ hội đột phá về năng suất nhưng cũng mở rộng phạm vi cho các cuộc tấn công lừa đảo trực tuyến.
John Gill, Chủ tịch ACFE, nói “sự tiện lợi của các công cụ AI tạo sinh khiến chúng cực kỳ nguy hiểm nếu rơi vào tay kẻ xấu”.
Trong một báo cáo phân tích rủi ro do AI tạo sinh tạo ra, công ty tư vấn PwC cho biết những hacker và kẻ lừa đảo trực tuyến đã sử dụng công nghệ này để viết malware (phần mềm độc hại), email lừa đảo và tạo danh tính giả. PwC dự đoán sẽ có sự gia tăng gian lận, vi phạm quyền riêng tư và tấn công mạng trên quy mô lớn.
Theo đại diện của Huorong - công ty bảo mật trực tuyến có trụ sở tại Bắc Kinh (thủ đô Trung Quốc), hacker và kẻ lừa đảo trực tuyến sử dụng các chatbot AI giống ChatGPT ngày càng nhiều để tạo ra mã độc, giúp việc phát động những cuộc tấn công trực tuyến trở nên dễ dàng hơn.
Cuối tháng 5.2023, công ty an ninh mạng WithSecure (Phần Lan) xác nhận rằng đã tìm thấy các dòng phần mềm độc hại mới do ChatGPT tạo ra. Điều đặc biệt nguy hiểm là ChatGPT (chatbot AI phổ biến nhất thế giới) có thể tạo ra vô số biến thể của phần mềm độc hại, khiến chúng khó bị phát hiện.
WithSecure là công ty an ninh mạng chuyên cung cấp các giải pháp và dịch vụ bảo mật nhằm bảo vệ khỏi các mối đe dọa mạng đa dạng. Công ty này cung cấp thông tin tình báo về mối đe dọa, đánh giá lỗ hổng, phản ứng sự cố và tư vấn bảo mật. Mục tiêu của WithSecure là hỗ trợ các tổ chức nâng cao khả năng bảo mật mạng và phòng ngừa các hoạt động độc hại.
Những kẻ xấu chỉ cần cung cấp cho ChatGPT các ví dụ về mã phần mềm độc hại hiện có và hướng dẫn chatbot AI này tạo ra các biến thể mới dựa trên đó. Thế nên kẻ xấu có thể tạo ra các dòng mã độc mới mà không mất nhiều thời gian, nỗ lực và chuyên môn như trước đây.
Đã có rất nhiều cuộc nói chuyện về việc điều chỉnh AI, để ngăn không cho công nghệ này bị sử dụng cho mục đích xấu.
Khi ChatGPT ra mắt vào tháng 11.2022, thực tế là không có quy định nào quản lý việc sử dụng nó. Chỉ sau đó 1 tháng, chatbot AI của OpenAI đã bị lạm dụng để viết các email và tạo file độc hại.
Có một số biện pháp bảo vệ cụ thể đã được áp dụng bên trong mô hình ngôn ngữ lớn nhằm ngăn chặn việc thực hiện các lời gợi ý xấu xa, nhưng kẻ tấn công có thể tìm cách vượt qua những biện pháp này.
Juhani Hintikka, Giám đốc điều hành WithSecure, nói với trang Infosecurity rằng AI thường được các nhà bảo vệ an ninh mạng sử dụng để tìm và loại bỏ phần mềm độc hại do kẻ xấu tạo thủ công. Song bây giờ, với sự sẵn có miễn phí của các công cụ AI mạnh mẽ như ChatGPT, tình thế đang thay đổi. Các công cụ truy cập từ xa đã được dùng cho mục đích bất hợp pháp và giờ đây AI cũng vậy.
Tim West, người đứng đầu bộ phận tình báo về mối đe dọa tại WithSecure, nói thêm rằng: “ChatGPT sẽ hỗ trợ kỹ thuật phần mềm cả điều tốt lẫn xấu. Nó là một công cụ trợ giúp cũng như hạ thấp rào cản xâm nhập cho các kẻ đe dọa phát triển phần mềm độc hại”.
Lo Theo Juhani Hintikka, chúng ta có thể phát hiện các email lừa đảo do ChatGPT viết. Song khi mô hình ngôn ngữ lớn ngày càng trở nên tiên tiến hơn thì việc ngăn chặn những trò lừa đảo như vậy trong tương lai gần sẽ khó khăn hơn.
Hơn nữa, với sự thành công của các cuộc tấn công ransomware ngày càng tăng với tốc độ đáng lo ngại, những kẻ đe dọa đang tái đầu tư và trở nên có tổ chức hơn, mở rộng hoạt động bằng cách thuê bên ngoài và phát triển hơn nữa hiểu biết về AI để tiến hành các cuộc tấn công thành công hơn.
Ransomware là loại phần mềm độc hại được thiết kế để xâm nhập vào máy tính hoặc mạng máy tính, sau đó mã hóa dữ liệu trên hệ thống và yêu cầu người sử dụng trả một khoản tiền chuộc để nhận được khóa giải mã và khôi phục quyền truy cập vào dữ liệu của họ.
Khi hệ thống hoặc file bị mã hóa bởi ransomware, người sử dụng sẽ nhận được thông báo yêu cầu thanh toán một số tiền thông qua các phương tiện thanh toán điện tử như Bitcoin. Sau khi thanh toán được thực hiện, hacker sẽ cung cấp công cụ giải mã để khôi phục dữ liệu bị mã hóa.
Ransomware có thể lây nhiễm thông qua email và trang web độc hại, hoặc cả những lỗ hổng bảo mật trong hệ thống. Nó đã trở thành một mối đe dọa lớn với cá nhân, doanh nghiệp và tổ chức. Các biến thể của ransomware ngày càng trở nên phức tạp với mục tiêu đa dạng từ việc tấn công người dùng cá nhân đến các tổ chức lớn.
Sergey Shykevich, nhà nghiên cứu ChatGPT hàng đầu tại công ty an ninh mạng Check Point (Israel), đã chứng kiến tội phạm mạng khai thác sức mạnh của AI để tạo mã có thể được sử dụng trong nhiều cuộc tấn công ransomware.
Khi nhìn vào bối cảnh an ninh mạng phía trước, Juhani Hintikka kết luận rằng: "Đây sẽ là trò chơi giữa AI tốt và AI xấu".