Các nguồn tin của Reuters cho biết chính quyền Biden đã sẵn sàng mở ra một mặt trận mới trong nỗ lực bảo vệ trí tuệ nhân tạo (AI) của Mỹ khỏi Trung Quốc với kế hoạch sơ bộ nhằm thiết lập các rào chắn xung quanh các mô hình AI tiên tiến nhất. Đó là phần mềm cốt lõi của các hệ thống AI như ChatGPT.
Nhịp đập khoa học

Mỹ muốn chặn Trung Quốc tiếp cận mô hình AI tiên tiến nhất vì sợ tấn công mạng và vũ khí sinh học

Sơn Vân 08/05/2024 23:00

Các nguồn tin của Reuters cho biết chính quyền Biden đã sẵn sàng mở ra một mặt trận mới trong nỗ lực bảo vệ trí tuệ nhân tạo (AI) của Mỹ khỏi Trung Quốc với kế hoạch sơ bộ nhằm thiết lập các rào chắn xung quanh các mô hình AI tiên tiến nhất. Đó là phần mềm cốt lõi của các hệ thống AI như ChatGPT.

Bộ Thương mại Mỹ đang cân nhắc một động thái pháp lý mới nhằm hạn chế xuất khẩu các mô hình AI độc quyền hoặc nguồn đóng, có phần mềm và dữ liệu đào tạo được giữ kín, ba người quen thuộc với vấn đề này tiết lộ với hãng tin Reuters.

Bất kỳ hành động nào cũng sẽ bổ sung vào hàng loạt biện pháp được thực hiện 2 năm qua để ngăn chặn việc xuất khẩu chip AI tiên tiến sang Trung Quốc, trong nỗ lực làm chậm quá trình phát triển công nghệ tiên tiến của nước này cho mục đích quân sự. Dù vậy, các cơ quan quản lý ở Mỹ sẽ khó có thể theo kịp sự phát triển nhanh chóng của ngành.

Bộ Thương mại Mỹ từ chối bình luận. Đại sứ quán Trung Quốc tại Washington không trả lời ngay lập tức khi được Reuters đề nghị bình luận.

Hiện tại, không gì có thể ngăn cản các gã khổng lồ Mỹ về AI như Microsoft, OpenAI, Google DeepMind của Alphabet và Anthropic, vốn đã phát triển một số mô hình AI nguồn đóng mạnh mẽ nhất, bán chúng cho hầu hết mọi người trên thế giới mà không có sự giám sát của chính phủ.

Các nhà nghiên cứu của chính phủ và khu vực tư nhân lo ngại các đối thủ cạnh tranh với Mỹ có thể sử dụng các mô hình AI này khai thác lượng lớn văn bản và hình ảnh để tóm tắt thông tin và tạo nội dung, rồi thực hiện các cuộc tấn công mạng mạnh mẽ hoặc thậm chí tạo ra vũ khí sinh học nguy hiểm.

Để phát triển biện pháp kiểm soát xuất khẩu với các mô hình AI, Mỹ có thể chuyển sang ngưỡng có trong lệnh về AI được ban hành vào tháng 10.2023, dựa trên lượng sức mạnh tính toán cần thiết để đào tạo một mô hình AI. Khi đạt đến ngưỡng đó, các công ty phải báo cáo kế hoạch phát triển mô hình AI của mình và cung cấp kết quả thử nghiệm cho Bộ Thương mại Mỹ.

Theo hai quan chức Mỹ và một nguồn tin khác tóm tắt về các cuộc thảo luận, ngưỡng sức mạnh tính toán đó có thể trở thành cơ sở để xác định những mô hình AI nào sẽ bị hạn chế xuất khẩu. Họ từ chối nêu tên vì thông tin chi tiết chưa được công khai.

Nếu được áp dụng, quy định có thể chỉ hạn chế việc xuất khẩu các mô hình AI vẫn chưa được phát hành. Lý do vì chưa có mô hình AI nào đã đạt đến ngưỡng này, dù Gemini Ultra của Google được cho đang tiến gần tới, theo EpochAI - Viện nghiên cứu theo dõi các xu hướng AI.

Các nguồn tin nhấn mạnh rằng Bộ Thương mại Mỹ vẫn chưa hoàn thiện đề xuất quy định. Thế nhưng, việc xem xét động thái như vậy cho thấy chính phủ Mỹ đang tìm cách vá lỗ hổng trong nỗ lực ngăn chặn tham vọng AI của Trung Quốc, bất chấp những thách thức nghiêm trọng về áp đặt chính sách quản lý cứng rắn với công nghệ phát triển nhanh chóng này.

Khi chính phủ Biden xem xét sự cạnh tranh với Trung Quốc và những nguy cơ từ AI tinh vi, "các mô hình AI rõ ràng là một trong những điểm nghẽn (rủi ro) tiềm ẩn mà bạn cần suy nghĩ ở đây. Liệu bạn có thể thực sự biến nó thành một điểm nghẽn bị kiểm soát xuất khẩu trong thực tế hay không thì vẫn cần phải xem xét thêm", theo Peter Harrell, cựu quan chức của Hội đồng An ninh Quốc gia Mỹ.

my-muon-chan-trung-quoc-tiep-can-mo-hinh-ai-tien-tien-nhat-vi-so-tan-cong-mang-va-vu-khi-sinh-hoc.jpg
Google Gemini Ultra và GPT-4 của OpenAI là hai trong những mô hình AI tiên tiến nhất hiện nay ở Mỹ - Ảnh: Internet

Vũ khí sinh học và tấn công mạng?

Cộng đồng tình báo Mỹ, các tổ chức nghiên cứu và học giả ngày càng lo ngại về những rủi ro do các tác nhân xấu nước ngoài tiếp cận với các khả năng AI tiên tiến gây ra. Các nhà nghiên cứu tại tổ chức Gryphon Scientific và Rand Corporation lưu ý rằng các mô hình AI tiên tiến có thể cung cấp thông tin giúp tạo ra vũ khí sinh học.

Trong đánh giá mối đe dọa an ninh nội địa năm 2024, Bộ An ninh Nội địa Mỹ cho biết rằng các tác nhân mạng có thể sẽ sử dụng AI để "phát triển các công cụ mới nhằm giúp cuộc tấn công mạng quy mô lớn hơn, nhanh hơn, hiệu quả hơn và khó ngăn chặn hơn".

Một trong những nguồn tin của Reuters cho biết bất kỳ quy định xuất khẩu mới nào cũng có thể nhắm tới các quốc gia khác.

"Sự bùng nổ tiềm tàng trong việc sử dụng và khai thác AI là rất lớn. Chúng tôi thực sự đang gặp khó khăn trong việc theo dõi điều đó", Brian Holmes, quan chức Văn phòng Giám đốc Tình báo Quốc gia Mỹ, nói tại một cuộc họp kiểm soát xuất khẩu vào tháng 3, nhấn mạnh sự tiến bộ của Trung Quốc là một mối quan ngại đặc biệt.

Việc kiểm soát xuất khẩu mô hình AI sẽ rất khó khăn

Để giải quyết những lo ngại này, chính quyền Biden đã thực hiện các biện pháp để ngăn chặn dòng chảy chip AI tiên tiến của Mỹ và các công cụ sản xuất ra chúng sang Trung Quốc.

Chính quyền Biden cũng đề xuất một quy định yêu cầu các công ty đám mây Mỹ thông báo cho chính phủ khi khách hàng nước ngoài sử dụng dịch vụ của họ để đào tạo các mô hình AI mạnh mẽ có thể được sử dụng cho tấn công mạng. Song đến nay, họ vẫn chưa giải quyết được vấn đề với các mô hình AI.

Alan Estevez, người giám sát chính sách xuất khẩu của Mỹ tại Bộ Thương mại, nói vào tháng 12.2023 rằng cơ quan này đang xem xét các lựa chọn để điều chỉnh việc xuất khẩu mô hình ngôn ngữ lớn nguồn mở trước khi tìm kiếm phản hồi của ngành công nghiệp.

Tim Fist, chuyên gia chính sách AI tại tổ chức tư vấn CNAS có trụ sở tại Washington D.C (thủ đô Mỹ), nói ngưỡng sức mạnh tính toán “là một biện pháp tạm thời tốt cho đến khi chúng ta phát triển các phương pháp tốt hơn để đo lường khả năng và rủi ro của các mô hình AI mới”.

Ngưỡng này không cố định. Một trong những nguồn tin của Reuters nói Bộ Thương mại Mỹ có thể sẽ đưa ra ngưỡng thấp hơn, kết hợp với các yếu tố khác, chẳng hạn như loại dữ liệu hoặc mục đích sử dụng mô hình AI tiềm năng, chẳng hạn khả năng thiết kế protein có thể được sử dụng để tạo ra vũ khí sinh học.

Bất kể ngưỡng là gì, việc kiểm soát xuất khẩu mô hình AI sẽ rất khó khăn. Nhiều mô hình AI là mã nguồn mở, nghĩa là chúng sẽ nằm ngoài phạm vi kiểm soát xuất khẩu đang được Mỹ xem xét.

Tim Fist cho biết ngay cả việc áp đặt các biện pháp kiểm soát với các mô hình AI độc quyền tiên tiến hơn cũnggặp nhiều thách thức, vì các cơ quan quản lý có thể sẽ gặp khó khăn trong việc xác định các tiêu chí phù hợp để xác định những mô hình AI nào nên được kiểm soát. Ông lưu ý rằng Trung Quốc có thể kém Mỹ khoảng 2 năm trong việc phát triển phần mềm AI của riêng mình.

Ông Biden ký lệnh quan trọng về AI vì bất ngờ với khả năng của ChatGPT sau lần đầu sử dụng

Sau hơn 3 thập kỷ ở Thượng viện, 8 năm làm Phó tổng thống và ba chiến dịch tranh cử Tổng thống Mỹ, những tưởng ông Joe Biden sẽ không bất ngờ khi lần đầu sử dụng ChatGPT.

Vào mùa xuân năm ngoái, Tổng thống Mỹ Biden đã dùng thử ChatGPT - chatbot đình đám của công ty khởi nghiệp OpenAI, tờ Wired đưa tin đầu tháng 5. Vài tháng sau, ông ký đạo luật sâu rộng nhắm vào công nghệ mới nổi này.

Arati Prabhakar, cố vấn khoa học và công nghệ chính của ông Biden kiêm Giám đốc Văn phòng Khoa học và Công nghệ của Nhà Trắng, nói với tờ Wired rằng bà và Tổng thống Mỹ đã yêu cầu ChatGPT thực hiện một số nhiệm vụ.

Đầu tiên, họ yêu cầu ChatGPT giải thích vụ kiện giữa Delaware (bang mà ông Biden từng đại diện với tư cách là thượng nghị sĩ) và New Jersey (bang quê hương của ca sĩ kiêm nhạc sĩ Bruce Springsteen, người mà ông Biden vừa trao Huân chương Nghệ thuật Quốc gia) như thể chatbot này đang nói chuyện với một học sinh lớp 1.

Tiếp theo, họ yêu cầu ChatGPT viết bản tóm tắt pháp lý cho một vụ án của Tòa án Tối cao Mỹ, viết lời bài hát theo phong cách Bruce Springsteen và tạo ra hình ảnh con chó của ông Biden (tên là Commander) trong Phòng Bầu dục ở Nhà Trắng.

“Tôi không thể tin được là nó có thể làm được điều đó”, ông Biden nói với bà Arati Prabhakar, theo Wired. Thế nên lần đầu tiên tiếp xúc với ChatGPT đã làm dấy lên mối lo ngại với Tổng thống Mỹ.

Arati Prabhakar nói với Wired rằng ông Biden sau đó đã yêu cầu đội ngũ của bà giải quyết những rủi ro tiềm ẩn liên quan đến AI. Điều đó dẫn đến lệnh hành pháp sâu rộng mà ông Biden ký vào tháng 10.2023 nhằm thiết lập một bộ tiêu chuẩn mới về an toàn và bảo mật AI. Lệnh yêu cầu sự minh bạch hơn từ các hãng công nghệ tạo ra và phát triển các công cụ AI, yêu cầu những công ty đang phát triển mô hình ngôn ngữ lớn có thể gây rủi ro cho an ninh quốc gia phải thông báo cho chính phủ về công việc của họ và chia sẻ dữ liệu thử nghiệm quan trọng.

Bài liên quan
Microsoft, Google, Meta đặt cược vào dữ liệu fake để xây dựng mô hình AI: Ưu điểm và rủi ro
Các công ty trí tuệ nhân tạo (AI) hàng đầu đang thử nghiệm một cách tiếp cận khác để đáp ứng nhu cầu dữ liệu vô tận của họ.

(0) Bình luận
Nổi bật Một thế giới
Cần có cơ sở pháp lý điều chỉnh về trí tuệ nhân tạo
5 giờ trước Nhịp đập khoa học
Ủy ban Khoa học -Công nghệ - Môi trường (KH-CN-MT) thấy rằng Việt Nam cần phải có cơ sở pháp lý nhằm điều chỉnh về trí tuệ nhân tạo (AI) để phát triển thế mạnh, hạn chế tác động bất lợi trong nghiên cứu, ứng dụng, phát triển công nghệ AI.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Mỹ muốn chặn Trung Quốc tiếp cận mô hình AI tiên tiến nhất vì sợ tấn công mạng và vũ khí sinh học