Một cựu nhân viên OpenAI cho biết công ty đang theo bước White Star Line, công ty đã đóng tàu Titanic.
Làm việc ba năm với tư cách là thành viên đội ngũ kỹ thuật trong bộ phận superalignment của OpenAI, William Saunders cho biết: “Tôi thực sự không muốn làm việc cho Titanic của AI. Đó là lý do tại sao tôi nghỉ việc”. Anh chia sẻ điều này trên podcast của YouTuber công nghệ Alex Kantrowitz.
Superalignment đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AGI, hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại. Công việc liên quan đến superalignment gồm phát triển các phương pháp để đảm bảo rằng những mục tiêu và hành động của AI không chỉ phù hợp với các giá trị và mong muốn của con người, mà còn có thể đối phó với tình huống phức tạp, không lường trước được. Điều này có thể gồm:
- Xây dựng các biện pháp an toàn và bảo mật mạnh mẽ để đảm bảo rằng AI không thể bị lạm dụng.
- Phát triển các hệ thống giám sát và kiểm soát hiệu quả để theo dõi và điều chỉnh hành vi của AI kịp thời.
- Nghiên cứu về khả năng đối phó với các tình huống bất ngờ hoặc cực đoan để đảm bảo AI hoạt động an toàn ngay cả trong các tình huống ngoài dự đoán.
- Đảm bảo tính minh bạch và trách nhiệm trong quyết định của AI để con người có thể hiểu và kiểm soát được hành vi của AI.
"Trong ba năm làm việc tại OpenAI, đôi khi tôi tự hỏi mình một câu: Con đường mà OpenAI đang đi giống chương trình Apollo hay tàu Titanic hơn?", Saunders nói.
Mối lo ngại trong kỹ sư phần mềm này phần lớn xuất phát từ kế hoạch của OpenAI nhằm đạt được AGI (AI tổng quát) và ra mắt các sản phẩm trả phí. AGI là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.
Saunders nói: “Họ đang trên quỹ đạo thay đổi thế giới, song khi phát hành mọi thứ, ưu tiên của họ lại giống một công ty sản phẩm hơn. Tôi nghĩ đó là điều đáng lo ngại nhất”.
Apollo hay Titanic?
Khi dành nhiều thời gian hơn cho OpenAI, Saunders cảm thấy các nhà lãnh đạo công ty đang đưa ra các quyết định giống với việc "đóng tàu Titanic hơn, ưu tiên tạo ra các sản phẩm mới hơn, sáng bóng hơn".
William Saunders thích phương pháp tiếp cận giống như chương trình không gian Apollo, mà anh mô tả là ví dụ về một dự án đầy tham vọng “dự đoán và đánh giá rủi ro cẩn thận”, đồng thời vẫn thúc đẩy và mở rộng các giới hạn của khoa học.
Saunders nói: “Ngay cả khi những vấn đề lớn xảy ra, như Apollo 13, họ vẫn có đủ lực dự phòng và có thể thích ứng với tình hình để đưa mọi người trở về an toàn”.
Ngược lại, tàu Titanic được White Star Line chế tạo khi hãng này cạnh tranh với các đối thủ để tạo ra những tàu du lịch lớn hơn, Saunders cho biết.
Saunders lo ngại rằng giống như các biện pháp bảo vệ tàu Titanic, OpenAI có thể phụ thuộc quá nhiều vào những biện pháp và nghiên cứu hiện tại về an toàn AI.
Anh nói: “Rất nhiều công việc đã được thực hiện để đảm bảo con tàu an toàn và xây dựng các khoang chống thấm nước để người ta có thể nói rằng nó không thể chìm. Song đồng thời cũng không có đủ xuồng cứu sinh cho mọi người. Thế nên khi thảm họa xảy ra, rất nhiều người đã thiệt mạng”.
Các sứ mệnh Apollo được thực hiện trong bối cảnh cuộc chạy đua không gian thời Chiến tranh Lạnh với Nga. Chúng cũng liên quan đến một số vụ thương vong nghiêm trọng, trong đó có ba phi hành gia NASA (Cơ quan Hàng không và Vũ trụ Mỹ) thiệt mạng năm 1967 do hỏa hoạn về điện trong một cuộc thử nghiệm.
Giải thích thêm về phép ẩn dụ của mình trong email gửi đến trang Insider, Saunders viết: "Đúng, chương trình Apollo có những bi kịch của riêng mình. Không thể phát triển AGI hoặc bất kỳ công nghệ mới nào mà không có rủi ro. Điều tôi muốn thấy là công ty thực hiện tất cả bước hợp lý có thể để ngăn chặn những rủi ro này".
“OpenAI cần thêm xuồng cứu sinh”
Saunders nói rằng "thảm họa Titanic" với AI có thể biểu hiện ở một mô hình ngôn ngữ lớn có thể phát động cuộc tấn công mạng quy mô lớn, thuyết phục đông đảo người tham gia một chiến dịch hoặc giúp chế tạo vũ khí sinh học.
Trong thời gian tới, OpenAI nên đầu tư vào các "xuồng cứu sinh" bổ sung, như trì hoãn việc phát hành các mô hình ngôn ngữ lớn mới để các nhóm có thể nghiên cứu các tác hại tiềm ẩn, anh cho hay.
Khi còn ở trong bộ phận Superalignment, Saunders đã lãnh đạo một nhóm gồm 4 nhân viên chuyên tìm hiểu cách hoạt động của các mô hình ngôn ngữ lớn, điều mà anh cho rằng con người chưa biết đầy đủ.
Saunders lý giải: “Nếu trong tương lai, chúng ta xây dựng các hệ thống AI thông minh bằng hoặc hơn hầu hết con người thì sẽ cần các kỹ thuật để có thể biết liệu chúng có đang che giấu khả năng hay động cơ hay không”.
Trong cuộc phỏng vấn với Alex Kantrowitz, Saunders nói thêm rằng nhân viên OpenAI thường thảo luận các lý thuyết về việc AI có thể trở thành lực lượng "có khả năng biến đổi mạnh mẽ" chỉ sau vài năm nữa.
Anh nói: “Tôi nghĩ khi công ty nói về điều này, họ có nhiệm vụ phải chuẩn bị cho điều đó”.
Đến nay, Saunders vẫn thất vọng với hành động của OpenAI.
Trong email gửi tới Insider, Saunders viết: “Dù có những nhân viên tại OpenAI đang làm tốt công việc hiểu biết và ngăn ngừa rủi ro, nhưng tôi không thấy có đủ mức độ ưu tiên cho việc này”.
Saunders rời OpenAI vào tháng 2. Sau đó, công ty đã giải thể bộ phận Superalignment vào tháng 5, chỉ vài ngày sau khi công bố mô hình ngôn ngữ lớn đa phương thức GPT-4o.
OpenAI không trả lời ngay lập tức câu hỏi tìm bình luận của Insider.
Các hãng công nghệ như OpenAI, Microsoft, Apple, Google và Meta Platforms đã tham gia vào cuộc chạy đua về AI, làm dấy lên làn sóng đầu tư sôi nổi vào lĩnh vực được nhiều người dự đoán sẽ là bước đột phá lớn tiếp theo tương tự như internet.
Tốc độ phát triển AI chóng mặt đã khiến một số nhân viên và chuyên gia cảnh báo rằng cần phải quản trị doanh nghiệp nhiều hơn để tránh những thảm họa trong tương lai.
Đầu tháng 6, một nhóm nhân viên cũ và hiện tại ở Google Deepmind và OpenAI, gồm cả Saunders, đã đăng bức thư ngỏ cảnh báo rằng các tiêu chuẩn giám sát hiện tại của ngành không đủ để bảo vệ nhân loại khỏi thảm họa.
Ilya Sutskever (đồng sáng lập và cựu Giám đốc khoa học OpenAI từng lãnh đạo bộ phận Superalignment), đã từ chức vào giữa tháng 5, một ngày sau khi GPT-4o trình làng
Sau đó, Ilya Sutskever đã thành lập công ty khởi nghiệp Safe Superintelligence mà ông cho biết sẽ tập trung vào nghiên cứu AI và đảm bảo “sự an toàn luôn được đặt lên hàng đầu”.
Vài tháng qua, một số nhân viên đã rời OpenAI với lý do lo ngại về cam kết an toàn AI của công ty. Ngoài việc đưa ra những thông báo ngắn gọn trên mạng xã hội X, đa số không nói nhiều về lý do tại sao lo lắng về cách tiếp cận phát triển của OpenAI hoặc tương lai AI.
Đầu tháng 6, Leopold Aschenbrenner, nhà nghiên cứu bị OpenAI sa thải vào tháng 4, đã tiết lộ những suy nghĩ của mình về cuộc cách mạng AI trong bài luận dài 165 trang.
Từng làm việc trong bộ phận Superalignment, Leopold Aschenbrenner cho biết OpenAI sa thải anh vì làm rò rỉ thông tin về sự sẵn sàng của công ty với AGI.
Về phần mình, Aschenbrenner cho biết thông tin mà mình chia sẻ là “hoàn toàn bình thường” và OpenAI có thể tìm lý do để sa thải anh. Aschenbrenner là một trong số ít nhân viên từ chối ký vào lá thư kêu gọi phục chức cho Sam Altman sau khi hội đồng quản trị cũ của OpenAI sa thải ông một thời gian ngắn vào tháng 11.2023.
Jan Leike, cựu lãnh đạo nhóm superalignment của OpenAI, cũng tuyên bố nghỉ việc. Hôm 17.5, Jan Leike đã phơi bày các vấn đề ở OpenAI.
"Những năm qua, văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng", Jan Leike viết trong chuỗi bài dài trên X hôm 17.5.
Trong các bài viết của mình, Jan Leike cho biết gia nhập OpenAI vì nghĩ đây sẽ là nơi tốt nhất để nghiên cứu cách "điều hướng và kiểm soát" AGI. "Tuy nhiên, tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian khá dài, cho đến khi chúng tôi cuối cùng đi đến ngõ cụt", Jan Leike viết.
Cựu giám đốc OpenAI cho rằng công ty nên tập trung phần lớn sự chú ý vào các vấn đề về "an ninh, giám sát, sẵn sàng, an toàn, khả năng chống đối kháng, định hướng, bảo mật, tác động xã hội và các chủ đề liên quan".
Jan Leike tiết lộ đội ngũ cũ của ông, nghiên cứu cách làm các hệ thống AI phù hợp với những gì tốt nhất cho nhân loại, đã "đi ngược chiều gió" tại OpenAI.
"Chúng tôi đã chậm trễ rất nhiều trong việc nghiêm túc đánh giá về những tác động của AGI. OpenAI phải trở thành một công ty AGI ưu tiên an toàn trước tiên", ông viết.
Jan Leike kết thúc chuỗi bài đăng trên X bằng lưu ý gửi tới các nhân viên OpenAI, khuyến khích họ thay đổi văn hóa an toàn của công ty.
"Tôi đang tin tưởng vào các bạn. Thế giới đang tin tưởng vào các bạn", ông viết.
"Tôi thực sự đánh giá cao những đóng góp của Jan Leike cho nghiên cứu định hướng và văn hóa an toàn của OpenAI, rất buồn khi thấy anh rời đi. Anh nói đúng, chúng tôi còn rất nhiều việc phải làm và cam kết thực hiện điều đó. Tôi sẽ có một bài đăng dài hơn trong vài ngày tới", Sam Altman - Giám đốc điều hành OpenAI viết.