Sam Altman, Giám đốc điều hành OpenAI - công ty khởi nghiệp phát triển ChatGPT, đã nói với ủy ban Thượng viện hôm 16.5 rằng việc sử dụng trí tuệ nhân tạo (AI) để can thiệp vào tính toàn vẹn cuộc bầu cử là "lĩnh vực đáng lo ngại".
“Tôi lo lắng về điều đó”, Sam Altman nói về bầu cử và AI. Ông cho biết thêm rằng cần có các quy tắc và nguyên tắc hướng dẫn để điều chỉnh việc sử dụng AI trong các cuộc bầu cử.
Trong suốt nhiều tháng, các công ty lớn và nhỏ đã đua nhau đưa AI ra thị trường, đổ dữ liệu vô tận và hàng tỉ USD vào lĩnh vực này. Một số nhà phê phán lo ngại rằng AI sẽ làm gia tăng các mối nguy hại cho xã hội, bao gồm cả định kiến và thông tin sai lệch. Trong khi những người khác cảnh báo rằng AI có thể đe dọa sự tồn tại của loài người.
Emad Mostaque, Giám đốc điều hành Stability AI (có trụ sở tại London, thủ đô Anh), cho rằng AI sẽ trở nên thông minh hơn và hiệu quả hơn trong công việc để thay thế cho con người trong hầu hết các lĩnh vực. Ở một cuộc phỏng vấn được công bố hôm 15.5, Emad Mostaque nói với BBC rằng ông nhìn thấy một kịch bản trong đó internet tràn ngập các "tác nhân" không thể kiểm soát và "có nhiều khả năng" hơn con người.
“Trường hợp xấu nhất là AI sinh sôi nảy nở và về cơ bản kiểm soát loài người”, Emad Mostaque cho hay.
Emad Mostaque dự đoán rằng AI sẽ có "tác động đến kinh tế lớn hơn cả đại dịch" về loại bỏ việc làm của con người.
Giám đốc điều hành Stability AI cũng cho rằng một ngày nào đó có thể xuất hiện sự phát triển đáng kinh ngạc về AI - điều sẽ gây ra áp lực khiến chính phủ phải đưa ra hành động chống lại công nghệ này. Ông mô tả sự phát triển này sẽ tương tự như cách mọi người bắt đầu quan tâm và lo ngại đại dịch hơn sau khi Tom Hanks nhiễm nCoV.
Stability AI chạy Stable Diffusion, công cụ vận hành bằng AI cho phép người dùng tạo hình ảnh từ lời nhắc bằng văn bản ngắn. Trong khi công nghệ của Stability AI đã gây chấn động các ngành công nghiệp, bản thân Emad Mostaque có cái nhìn bi quan về tương lai mà AI có thể gây ra.
Trở lại phiên điều trần của Sam Altman trước Ủy ban Quyền riêng tư, Công nghệ và Luật pháp thuộc Thượng viện Mỹ, Thượng nghị sĩ Cory Booker cho biết: "Không có cách nào để ‘đặt thần đèn này vào trong chai’. Trên toàn cầu, AI đang bùng nổ". Cory Booker là một trong nhiều nhà làm luật Mỹ đặt câu hỏi cho Sam Altman về cách tốt nhất để điều chỉnh AI.
Thượng nghị sĩ Mazie Hirono nhấn mạnh về nguy cơ thông tin sai lệch khi cuộc bầu cử Tổng thống Mỹ năm 2024 đang đến gần. "Ví dụ, trong bối cảnh bầu cử, tôi nhìn thấy bức ảnh cựu Tổng thống Trump bị NYPD (Sở Cảnh sát Thành phố New York) bắt giữ và nó đã lan truyền nhanh chóng", bà Mazie Hirono nói và hỏi Sam Altman về việc liệu ông có coi bức ảnh giả mạo đó là có hại hay không.
Sam Altman trả lời rằng người sáng tạo ảnh AI nên nêu rõ rằng đó là ảnh được tạo ra chứ không phải thực tế.
Phát biểu trước Quốc hội lần đầu tiên, Sam Altman gợi ý rằng Mỹ nên xem xét yêu cầu cấp phép và kiểm định cho việc phát triển các mô hình AI.
Được yêu cầu đưa ra ý kiến về việc AI nào nên được cấp phép, Sam Altman cho biết một mô hình có thể thuyết phục hoặc thao túng niềm tin của con người sẽ là ví dụ về "ngưỡng quan trọng".
Ông cũng nói rằng các công ty nên có quyền từ chối việc sử dụng dữ liệu của họ cho việc huấn luyện AI, đây là một ý tưởng đang được thảo luận tại Đồi Capitol. Tuy nhiên, Sam Altman cho biết những tài liệu công khai trên web sẽ là tài nguyên có thể sử dụng.
Giám đốc điều hành OpenAI cũng cho biết ông "sẽ không nói không bao giờ" với ý tưởng quảng cáo nhưng thích mô hình dựa trên đăng ký hơn (chẳng hạn trả 20 USD/tháng cho tài khoản ChatGPT Plus).
Trước đó, Nhà Trắng đã triệu tập giám đốc điều hành các hãng công nghệ hàng đầu về AI, gồm cả Sam Altman, để giải quyết vấn đề về AI.
Hôm 4.5, Tổng thống Joe Biden đã gặp Giám đốc điều hành OpenAI, Microsoft, Alphabet và Anthropic tại buổi họp ở Nhà Trắng để nói rõ rằng họ phải đảm bảo sản phẩm của mình an toàn trước khi được triển khai ra công chúng.
“Những gì bạn đang làm có tiềm năng to lớn và nguy hiểm cũng rất lớn. Tôi biết bạn hiểu điều đó. Tôi hy vọng bạn có thể giới thiệu cho chúng tôi về những gì bạn nghĩ là cần thiết nhất để bảo vệ xã hội cũng như sự tiến bộ”, ông Biden cho hay.
Bà Kamala Harris, Phó tổng thống Mỹ, nói với các giám đốc điều hành rằng họ có nghĩa vụ về “đạo đức” để bảo vệ xã hội khỏi những nguy cơ tiềm ẩn từ AI. Sau cuộc họp, bà Kamala Harris cho biết các hãng công nghệ lớn “phải tuân thủ luật pháp hiện hành để bảo vệ người dân Mỹ cũng như đảm bảo an toàn và bảo mật cho các sản phẩm của họ”.
Các nhà làm luật Mỹ vật lộn để ra các quy định kiểm soát AI, sự đồng thuận còn lâu mới đạt được
Các nhà làm luật Mỹ đang đối mặt với vấn đề là đặt ra những rào cản bảo vệ nào xung quanh AI đang phát triển mạnh mẽ, nhưng nhiều tháng sau khi ChatGPT thu hút sự chú ý của chính quyền Biden, sự đồng thuận còn lâu mới đạt được.
Các cuộc phỏng vấn với một thượng nghị sĩ Mỹ, các nhân viên Quốc hội và công ty AI cho thấy cho thấy có nhiều phương án đang được thảo luận.
Cuộc tranh luận trở thành tâm điểm vào ngày 16.5 khi Sam Altman lần đầu xuất hiện trước một ủy ban của Thượng viện.
Một số đề xuất tập trung vào AI có thể ảnh hưởng đến cuộc sống hoặc sinh kế con người, chẳng hạn như trong lĩnh vực y tế và tài chính. Các khả năng khác bao gồm quy tắc để đảm bảo AI không được sử dụng để phân biệt đối xử hoặc vi phạm quyền công dân của ai đó.
Một cuộc tranh luận khác là nên điều chỉnh nhà phát triển AI hay công ty sử dụng công nghệ này để tương tác với người tiêu dùng.
Không chắc cách tiếp cận nào sẽ được áp dụng, nhưng một số người trong cộng đồng doanh nghiệp, bao gồm cả IBM và Phòng Thương mại Mỹ, ủng hộ phương pháp chỉ điều chỉnh các lĩnh vực quan trọng, chẳng hạn chẩn đoán y tế. Đây là cách tiếp cận mà họ gọi là dựa trên rủi ro.
Nếu Quốc hội quyết định cần phải có luật mới, Ủy ban AI của Phòng Thương mại Mỹ khuyến khích "rủi ro được xác định dựa trên tác động đến cá nhân", theo lời Jordan Crenshaw, thuộc trung tâm sáng tạo công nghệ cao của Phòng Thương mại Mỹ. "Một đề xuất về video có thể không gây ra rủi ro cao như các quyết định liên quan đến sức khỏe hoặc tài chính", Jordan Crenshaw nói.
Sự phổ biến ngày càng tăng của generative AI làm dấy lên mối lo ngại rằng công nghệ phát triển nhanh này có thể khuyến khích gian lận trong các kỳ thi, cung cấp thông tin sai lệch và dẫn đến một thế hệ mới của các chiêu lừa đảo.
Generative AI là một loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu hoặc học máy trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
Jack Clark, đồng sáng lập công ty khởi nghiệp AI nổi tiếng Anthropic, nói: “Nhân viên trên toàn Hạ viện và Thượng viện đều được yêu cầu chung tay giải quyết vấn đề này. Mọi người muốn vượt lên trên AI, một phần vì họ cảm thấy như đã không vượt lên trên mạng xã hội".
Theo Adam Kovacevich, người đứng đầu Tổ chức vì Công nghệ tiến bộ, khi các nhà làm luật bắt kịp thời sự, ưu tiên chính của Big Tech (hãng công nghệ lớn) là chống lại "phản ứng quá đà với vấn đề".
Trong khi các nhà làm luật như Chuck Schumer (lãnh đạo phe đa số ở Thượng viện) quyết tâm giải quyết các vấn đề AI theo cách lưỡng đảng, thực tế là Quốc hội đang bị phân cực, còn cuộc bầu cử Tổng thống Mỹ sẽ diễn ra vào năm tới và các nhà làm luật đang giải quyết các vấn đề lớn khác, chẳng hạn tăng mức nợ công.
Kế hoạch đề xuất của Chuck Schumer yêu cầu các chuyên gia độc lập thử nghiệm các công nghệ AI mới trước khi phát hành, đồng thời cũng kêu gọi sự minh bạch và cung cấp cho chính phủ dữ liệu cần thiết để ngăn chặn tác hại.
Cách tiếp cận dựa trên rủi ro đồng nghĩa AI được sử dụng để chẩn đoán ung thư sẽ được Cục Quản lý Thực phẩm và Dược phẩm Mỹ (FDA) xem xét kỹ lưỡng, trong khi AI để giải trí sẽ không được kiểm soát. Liên minh châu Âu (EU) đã tiến tới việc thông qua các quy định tương tự.
Thế nhưng, việc tập trung vào rủi ro dường như là chưa đủ với Michael Bennet (Thượng nghị sĩ đảng Dân chủ), người đã đưa ra dự luật kêu gọi thành lập lực lượng đặc nhiệm AI của chính phủ. Michael Bennet cho biết ông ủng hộ "cách tiếp cận dựa trên giá trị" để ưu tiên quyền riêng tư, quyền tự do dân sự và các quyền.
Theo một trợ lý của Michael Bennet, các quy tắc dựa trên rủi ro có thể quá cứng nhắc và không phát hiện ra những mối nguy hiểm như việc AI sử dụng để đề xuất các video quảng bá quyền tối cao của người da trắng.
Các nhà làm luật cũng đã thảo luận về cách tốt nhất để đảm bảo AI không được sử dụng để phân biệt chủng tộc, có lẽ trong việc quyết định ai sẽ được cấp khoản vay lãi suất thấp, theo một người theo dõi các cuộc thảo luận tại Quốc hội nhưng không được phép nói chuyện với các phóng viên.
Một nhân viên OpenAI gần đây đã đề xuất thành lập cơ quan cấp phép cho AI của Mỹ, có thể được gọi là Văn phòng An toàn và An ninh Cơ sở hạ tầng AI (hay OASIS), Reuters đưa tin.
Trong cuộc nói chuyện vào tháng 4 tại Đại học Stanford (Mỹ), Cullen O'Keefe, nhà khoa học nghiên cứu của OpenAI, đã đề xuất về việc thành lập cơ quan bắt buộc các công ty phải xin giấy phép trước khi đào tạo các mô hình AI mạnh mẽ hoặc vận hành các trung tâm dữ liệu hỗ trợ chúng. Cullen O'Keefe nói cơ quan này có thể được gọi là OASIS.
Khi được hỏi về đề xuất này, Mira Murati, Giám đốc công nghệ OpenAI, cho biết một tổ chức đáng tin cậy có thể "đòi hỏi các nhà phát triển tuân thủ" các tiêu chuẩn an toàn. Tuy nhiên, điều quan trọng hơn cả là thống nhất "về những tiêu chuẩn và rủi ro nào mà bạn đang cố gắng giảm thiểu". Cơ quan quản lý lớn gần nhất được thành lập ở Mỹ là Cục Bảo vệ Tài chính Người tiêu dùng, ra đời sau cuộc khủng hoảng tài chính 2007-2008.
Sam Altman cũng đang kêu gọi hợp tác toàn cầu về AI và khuyến khích tuân thủ an toàn.
Christina Montgomery, Giám đốc quản lý quyền riêng tư và niềm tin của IBM, đã kêu gọi Quốc hội tập trung quy định vào các lĩnh vực có khả năng gây tổn hại xã hội lớn nhất.