Đội ngũ OpenAI phụ trách giảm thiểu rủi ro của siêu AI mất gần một nửa số thành viên
Nhịp đập khoa học - Ngày đăng : 16:33, 28/08/2024
Đội ngũ OpenAI phụ trách giảm thiểu rủi ro của siêu AI mất gần một nửa số thành viên
OpenAI đã mất gần một nửa số thành viên trong đội ngũ làm việc về an toàn trí tuệ nhân tạo (AI) của công ty, theo Daniel Kokotajlo. Ông từng làm việc nghiên cứu và đảm bảo an toàn cho các hệ thống AI ở OpenAI.
"Việc mất đi các thành viên trong đội ngũ này không phải là kết quả của quyết định có kế hoạch, mà là từng người tự rời bỏ công việc một cách riêng lẻ", Daniel Kokotajlo nói với hãng tin Fortune.
Rời OpenAI vào tháng 4.2023, Daniel Kokotajlo cho biết ban đầu công ty khởi nghiệp này có khoảng 30 người làm việc về các vấn đề an toàn liên quan đến AI tổng quát (AGI). AGI là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.
Thế nhưng, nhiều người lần lượt rời đi kể từ đó đã khiến đội ngũ an toàn về AI giảm xuống còn khoảng 16 thành viên, theo Daniel Kokotajlo.
Daniel Kokotajlo nói với Fortune rằng: "Những người chủ yếu tập trung vào việc suy nghĩ về sự an toàn và chuẩn bị cho AGI đang ngày càng bị gạt ra ngoài lề".
Khi được hỏi về vấn đề này, một phát ngôn viên của OpenAI nói rằng công ty "tự hào về thành tích cung cấp các hệ thống AI an toàn và có năng lực nhất, đồng thời tin tưởng vào phương pháp tiếp cận khoa học của chúng tôi để giải quyết rủi ro".
Người phát ngôn nói thêm rằng OpenAI sẽ "tiếp tục hợp tác với các chính phủ, xã hội dân sự và những cộng đồng khác trên khắp thế giới" về các vấn đề liên quan đến rủi ro và sự an toàn của AI.
Đầu tháng 8, John Schulman (người đồng sáng lập và đứng đầu các nỗ lực khoa học superalignment của OpenAI) cho biết ông sẽ rời đi để gia nhập đối thủ Anthropic. John Schulman cho biết trong một bài đăng trên mạng xã hội X rằng quyết định của ông là "cá nhân" và không phải "do thiếu sự hỗ trợ cho nghiên cứu superalignment tại OpenAI".
Superalignment trong ngữ cảnh của AI đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AGI, hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại.
Đây là một khái niệm quan trọng vì AGI, được xem khả năng suy nghĩ và ra quyết định nhanh hơn con người, có thể tác động lớn đến xã hội.
Công việc liên quan đến superalignment gồm phát triển các phương pháp để đảm bảo rằng những mục tiêu và hành động của AI không chỉ phù hợp với các giá trị và mong muốn của con người, mà còn có thể đối phó với tình huống phức tạp, không lường trước được. Điều này có thể gồm:
- Xây dựng các biện pháp an toàn và bảo mật mạnh mẽ để đảm bảo rằng AI không thể bị lạm dụng.
- Phát triển các hệ thống giám sát và kiểm soát hiệu quả để theo dõi và điều chỉnh hành vi của AI kịp thời.
- Nghiên cứu về khả năng đối phó với các tình huống bất ngờ hoặc cực đoan để đảm bảo AI hoạt động an toàn ngay cả trong các tình huống ngoài dự đoán.
- Đảm bảo tính minh bạch và trách nhiệm trong quyết định của AI để con người có thể hiểu và kiểm soát được hành vi của AI.
Superalignment là thách thức lớn trong việc phát triển AI tiên tiến, vì yêu cầu hiểu rõ không chỉ về công nghệ mà còn về các khía cạnh đạo đức, xã hội và triết học của việc triển khai AI trong thực tế.
Lo ngại về cam kết an toàn AI của OpenAI
John Schulman rời đi chỉ vài tháng sau khi một người đồng sáng lập superalignment khác là Ilya Sutskever tuyên bố từ chức Giám đốc khoa học OpenAI giữa tháng 5.
Ilya Sutskever, nhà đồng sáng lập OpenAI, hồi tháng 6 thông báo thành lập công ty AI riêng là Safe Superintelligence, tập trung vào nghiên cứu AI và đảm bảo “sự an toàn luôn được đặt lên hàng đầu”.
Jan Leike, người từng đồng lãnh đạo nhóm superalignment của OpenAI với Ilya Sutskever, cũng rời công ty giữa tháng 5. Giống như John Schulman, Jan Leike đang làm việc tại Anthropic.
Nhóm của Jan Leike và Ilya Sutskever từng được giao nhiệm vụ đảm bảo rằng siêu AI của OpenAI sẽ luôn phù hợp với lợi ích nhân loại.
"Tôi tham gia vì nghĩ OpenAI sẽ là nơi tốt nhất trên thế giới để thực hiện nghiên cứu này. Song trong những năm qua, văn hóa và quy trình an toàn đã bị lu mờ bởi các sản phẩm hào nhoáng", Jan Leike viết trong bài đăng trên X vào tháng 5.
Jan Leike cho rằng công ty nên tập trung phần lớn sự chú ý vào các vấn đề về "an ninh, giám sát, sẵn sàng, an toàn, khả năng chống đối kháng, định hướng, bảo mật, tác động xã hội và các chủ đề liên quan".
Jan Leike tiết lộ: "OpenAI đã chậm trễ rất nhiều trong việc nghiêm túc đánh giá về những tác động của AGI. OpenAI phải trở thành một công ty AGI ưu tiên an toàn trước tiên", ông viết.
Jan Leike khuyến khích các nhân viên OpenAI thay đổi văn hóa an toàn của công ty. "Tôi đang tin tưởng vào các bạn. Thế giới đang tin tưởng vào các bạn", ông viết.
Sam Altman, Giám đốc điều hành OpenAI, đã phản hồi Jan Leike: "Tôi thực sự đánh giá cao những đóng góp của Jan Leike cho nghiên cứu định hướng và văn hóa an toàn của OpenAI, rất buồn khi thấy anh rời đi. Anh nói đúng, chúng tôi còn rất nhiều việc phải làm và cam kết thực hiện điều đó".
Vài tháng qua, một số nhân viên đã rời OpenAI với lý do lo ngại về cam kết an toàn AI của công ty.
William Saunders, một cựu nhân viên OpenAI, cho biết công ty đang theo bước White Star Line - công ty đã đóng tàu Titanic.
Làm việc ba năm với tư cách là thành viên đội ngũ kỹ thuật trong bộ phận superalignment của OpenAI, William Saunders cho biết: “Tôi thực sự không muốn làm việc cho Titanic của AI. Đó là lý do tại sao tôi nghỉ việc”. Anh chia sẻ điều này trên podcast của YouTuber công nghệ Alex Kantrowitz.
"Trong ba năm làm việc tại OpenAI, đôi khi tôi tự hỏi mình một câu: Con đường mà OpenAI đang đi giống chương trình Apollo hay tàu Titanic hơn?", Saunders nói.
Mối lo ngại trong kỹ sư phần mềm này phần lớn xuất phát từ kế hoạch của OpenAI nhằm đạt được AGI (AI tổng quát) và ra mắt các sản phẩm trả phí. AGI là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.
Saunders nói: “Họ đang trên quỹ đạo thay đổi thế giới, song khi phát hành mọi thứ, ưu tiên của họ lại giống một công ty sản phẩm hơn. Tôi nghĩ đó là điều đáng lo ngại nhất”.
Khi dành nhiều thời gian hơn cho OpenAI, Saunders cảm thấy các nhà lãnh đạo công ty đang đưa ra các quyết định giống với việc "đóng tàu Titanic hơn, ưu tiên tạo ra các sản phẩm mới hơn, sáng bóng hơn".
William Saunders thích phương pháp tiếp cận giống như chương trình không gian Apollo, mà anh mô tả là ví dụ về một dự án đầy tham vọng “dự đoán và đánh giá rủi ro cẩn thận”, đồng thời vẫn thúc đẩy và mở rộng các giới hạn của khoa học.
Saunders nói: “Ngay cả khi những vấn đề lớn xảy ra, như Apollo 13, họ vẫn có đủ lực dự phòng và có thể thích ứng với tình hình để đưa mọi người trở về an toàn”.
Ngược lại, tàu Titanic được White Star Line chế tạo khi hãng này cạnh tranh với các đối thủ để tạo ra những tàu du lịch lớn hơn, Saunders cho biết.
Saunders lo ngại rằng giống như các biện pháp bảo vệ tàu Titanic, OpenAI có thể phụ thuộc quá nhiều vào những biện pháp và nghiên cứu hiện tại về an toàn AI.
Anh nói: “Rất nhiều công việc đã được thực hiện để đảm bảo con tàu an toàn và xây dựng các khoang chống thấm nước để người ta có thể nói rằng nó không thể chìm. Song đồng thời cũng không có đủ xuồng cứu sinh cho mọi người. Thế nên khi thảm họa xảy ra, rất nhiều người đã thiệt mạng”.
Các sứ mệnh Apollo được thực hiện trong bối cảnh cuộc chạy đua không gian thời Chiến tranh Lạnh với Nga. Chúng cũng liên quan đến một số vụ thương vong nghiêm trọng, trong đó có ba phi hành gia NASA (Cơ quan Hàng không và Vũ trụ Mỹ) thiệt mạng năm 1967 do hỏa hoạn về điện trong một cuộc thử nghiệm.
Giải thích thêm về phép ẩn dụ của mình trong email gửi đến trang Insider, Saunders viết: "Đúng, chương trình Apollo có những bi kịch của riêng mình. Không thể phát triển AGI hoặc bất kỳ công nghệ mới nào mà không có rủi ro. Điều tôi muốn thấy là công ty thực hiện tất cả bước hợp lý có thể để ngăn chặn những rủi ro này".
Saunders nói rằng "thảm họa Titanic" với AI có thể biểu hiện ở một mô hình ngôn ngữ lớn có thể phát động cuộc tấn công mạng quy mô lớn, thuyết phục đông đảo người tham gia một chiến dịch hoặc giúp chế tạo vũ khí sinh học.
Trong thời gian tới, OpenAI nên đầu tư vào các "xuồng cứu sinh" bổ sung, như trì hoãn việc phát hành các mô hình ngôn ngữ lớn mới để các nhóm có thể nghiên cứu các tác hại tiềm ẩn, anh cho hay.
Khi còn ở trong bộ phận Superalignment, Saunders đã lãnh đạo một nhóm gồm 4 nhân viên chuyên tìm hiểu cách hoạt động của các mô hình ngôn ngữ lớn, điều mà anh cho rằng con người chưa biết đầy đủ.
Saunders lý giải: “Nếu trong tương lai, chúng ta xây dựng các hệ thống AI thông minh bằng hoặc hơn hầu hết con người thì sẽ cần các kỹ thuật để có thể biết liệu chúng có đang che giấu khả năng hay động cơ hay không”.
Trong cuộc phỏng vấn với Alex Kantrowitz, Saunders nói thêm rằng nhân viên OpenAI thường thảo luận các lý thuyết về việc AI có thể trở thành lực lượng "có khả năng biến đổi mạnh mẽ" chỉ sau vài năm nữa.
Anh nói: “Tôi nghĩ khi công ty nói về điều này, họ có nhiệm vụ phải chuẩn bị cho điều đó”.
Đến nay, Saunders vẫn thất vọng với hành động của OpenAI.
Trong email gửi tới Insider, Saunders viết: “Dù có những nhân viên tại OpenAI đang làm tốt công việc hiểu biết và ngăn ngừa rủi ro, nhưng tôi không thấy có đủ mức độ ưu tiên cho việc này”.
Saunders rời OpenAI vào tháng 2. Sau đó, công ty đã giải thể bộ phận Superalignment vào tháng 5, chỉ vài ngày sau khi công bố mô hình ngôn ngữ lớn đa phương thức GPT-4o.
Các hãng công nghệ như OpenAI, Microsoft, Apple, Google và Meta Platforms đã tham gia vào cuộc chạy đua về AI, làm dấy lên làn sóng đầu tư sôi nổi vào lĩnh vực được nhiều người dự đoán sẽ là bước đột phá lớn tiếp theo tương tự như internet.
Tốc độ phát triển AI chóng mặt đã khiến một số nhân viên và chuyên gia cảnh báo rằng cần phải quản trị doanh nghiệp nhiều hơn để tránh những thảm họa trong tương lai.