Một cựu giám đốc về an toàn hàng đầu của OpenAI vừa phơi bày các vấn đề ở công ty khởi nghiệp về trí tuệ nhân tạo (AI) này.
Nhịp đập khoa học

Cựu giám đốc phơi bày vấn đề ở OpenAI: Sam Altman chọn các sản phẩm hào nhoáng thay vì an toàn AI

Sơn Vân 18/05/2024 10:56

Một cựu giám đốc về an toàn hàng đầu của OpenAI vừa phơi bày các vấn đề ở công ty khởi nghiệp về trí tuệ nhân tạo (AI) này.

Jan Leike, lãnh đạo nhóm superalignment của OpenAI, đã tuyên bố nghỉ việc tối 15.5 với bài đăng thẳng thắn trên mạng xã hội X: "Tôi đã từ chức".

Superalignment trong ngữ cảnh của AI đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AI tổng quát (AGI), hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại.

Đây là một khái niệm quan trọng vì AGI, được xem khả năng suy nghĩ và ra quyết định nhanh hơn con người, có thể tác động lớn đến xã hội.

Công việc liên quan đến superalignment gồm phát triển các phương pháp để đảm bảo rằng những mục tiêu và hành động của AI không chỉ phù hợp với các giá trị và mong muốn của con người, mà còn có thể đối phó với tình huống phức tạp, không lường trước được. Điều này có thể gồm:

- Xây dựng các biện pháp an toàn và bảo mật mạnh mẽ để đảm bảo rằng AI không thể bị lạm dụng.

- Phát triển các hệ thống giám sát và kiểm soát hiệu quả để theo dõi và điều chỉnh hành vi của AI kịp thời.

- Nghiên cứu về khả năng đối phó với các tình huống bất ngờ hoặc cực đoan để đảm bảo AI hoạt động an toàn ngay cả trong các tình huống ngoài dự đoán.

- Đảm bảo tính minh bạch và trách nhiệm trong quyết định của AI để con người có thể hiểu và kiểm soát được hành vi của AI.

Superalignment là thách thức lớn trong việc phát triển AI tiên tiến, vì yêu cầu hiểu rõ không chỉ về công nghệ mà còn về các khía cạnh đạo đức, xã hội và triết học của việc triển khai AI trong thực tế.

Jan Leike vừa chia sẻ thêm về lý do nghỉ việc và cho biết OpenAI không coi trọng vấn đề an toàn đủ nghiêm túc.

"Những năm qua, văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng", Jan Leike viết trong chuỗi bài dài trên X hôm 17.5.

Trong các bài viết của mình, Jan Leike cho biết gia nhập OpenAI vì nghĩ đây sẽ là nơi tốt nhất để nghiên cứu cách "điều hướng và kiểm soát" AGI. AGI được xem là phiên bản AI có khả năng suy nghĩ nhanh hơn con người.

"Tuy nhiên, tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian khá dài, cho đến khi chúng tôi cuối cùng đi đến ngõ cụt", Jan Leike viết.

Cựu giám đốc OpenAI cho rằng công ty nên tập trung phần lớn sự chú ý vào các vấn đề về "an ninh, giám sát, sẵn sàng, an toàn, khả năng chống đối kháng, định hướng, bảo mật, tác động xã hội và các chủ đề liên quan".

Jan Leike tiết lộ đội ngũ cũ của ông, nghiên cứu cách làm các hệ thống AI phù hợp với những gì tốt nhất cho nhân loại, đã "đi ngược chiều gió" tại OpenAI.

"Chúng tôi đã chậm trễ rất nhiều trong việc nghiêm túc đánh giá về những tác động của AGI. OpenAI phải trở thành một công ty AGI ưu tiên an toàn trước tiên", ông viết.

Jan Leike kết thúc chuỗi bài đăng trên X bằng lưu ý gửi tới các nhân viên OpenAI, khuyến khích họ thay đổi văn hóa an toàn của công ty.

"Tôi đang tin tưởng vào các bạn. Thế giới đang tin tưởng vào các bạn", ông viết.

Sam Altman, Giám đốc điều hành OpenAI, đã trả lời chuỗi bài đăng của Jan Leike trên X.

"Tôi thực sự đánh giá cao những đóng góp của Jan Leike cho nghiên cứu định hướng và văn hóa an toàn của OpenAI, rất buồn khi thấy anh rời đi. Anh nói đúng, chúng tôi còn rất nhiều việc phải làm và cam kết thực hiện điều đó. Tôi sẽ có một bài đăng dài hơn trong vài ngày tới", Sam Altman viết. Giám đốc điều hành OpenAI kết thúc thông điệp bằng một biểu tượng cảm xúc hình trái tim màu cam.

cuu-giam-doc-openai-chi-trich-sam-altman-vi-chon-cac-san-pham-hao-nhoang-thay-vi-an-toan-ai.jpg
Từ trái qua phải lần lượt là Sam Altman, Ilya Sutskever và Jan Leike - Ảnh: Internet

Nhiều giám đốc cấp cao rời OpenAI

Jan Leike và Ilya Sutskever, một trưởng nhóm superalignment khác, thông báo rời OpenAI chỉ cách nhau vài giờ.

“Sau gần một thập kỷ, tôi đã đưa ra quyết định rời OpenAI”, Ilya Sutskever, nhà đồng sáng lập và cựu Giám đốc khoa học OpenAI, viết trong một bài đăng trên X hôm 15.5.

Ilya Sutskever cho biết ông đang thực hiện một dự án mới "rất có ý nghĩa với cá nhân tôi và tôi sẽ chia sẻ chi tiết vào thời điểm thích hợp".

Trong một tuyên bố trên X, Sam Altman ca ngợi Ilya Sutskever (đồng sáng lập OpenAI) là "một trong những bộ óc vĩ đại nhất của thế hệ chúng ta, một ngọn đèn chỉ đường cho lĩnh vực AI và là người bạn thân thiết".

"OpenAI sẽ không thể như ngày nay nếu không có anh. Dù anh có một công việc cá nhân đầy ý nghĩa cần theo đuổi, tôi mãi mãi biết ơn những gì anh đã làm ở đây và cam kết hoàn thành sứ mệnh mà chúng tôi bắt đầu cùng nhau", Sam Altman viết.

Jakub Pachocki sẽ là tân Giám đốc Khoa học OpenAI. Trước đây, Jakub Pachocki là Giám đốc Nghiên cứu OpenAI và lãnh đạo việc phát triển mô hình ngôn ngữ lớn GPT-4 cùng OpenAI Five.

OpenAI Five là một hệ thống AI được thiết kế để chơi game Dota 2. Mục tiêu của dự án OpenAI Five là để chứng minh khả năng của AI trong việc điều khiển các nhân vật trong một môi trường phức tạp, yêu cầu sự hợp tác và chiến lược cao giữa nhiều thực thể, cũng như khả năng ra quyết định trong thời gian thực.

Sự ra đi của Ilya Sutskever diễn ra một ngày sau khi OpenAI trình làng mô hình AI GPT-4o, có khả năng trò chuyện bằng giọng nói thực tế và tương tác qua văn bản lẫn hình ảnh.

Hôm 17.5, trang Wired đưa tin OpenAI đã giải tán nhóm rủi ro về AI của Jan Leike và Ilya Sutskever. OpenAI cho biết các nhà nghiên cứu đang điều tra những nguy hiểm của AI sẽ được sáp nhập vào các bộ phận khác trong công ty.

OpenAI đã bị lung lay bởi những sự thay đổi vị trí cấp cao vài tuần qua.

Ngoài Jan Leike và Ilya Sutskever, Diane Yoon (cựu phó chủ tịch phụ trách nhân sự) và Chris Clark (giám đốc các sáng kiến phi lợi nhuận và chiến lược) cũng rời OpenAI, theo trang The Information. Tuần trước, trang Insider đưa tin hai nhà nghiên cứu khác làm việc về an toàn AI đã nghỉ việc tại công ty.

Một trong hai nhà nghiên cứu này sau đó cho biết ông mất niềm tin rằng OpenAI sẽ "hành động có trách nhiệm khi phát triển và triển khai AGI".

Ilya Sutskever từng đóng một vai trò quan trọng trong vụ sa thải và tuyển dụng lại Sam Altman đầy kịch tính vào tháng 11.2023. Thời điểm đó, Ilya Sutskever là thành viên hội đồng quản trị của OpenAI và biểu quyết sa thải Sam Altman. Thế nhưng, hầu hết nhân viên OpenAI dọa nghỉ việc nếu không đưa Sam Altman trở lại vai trò giám đốc điều hành.

Vài ngày sau, Ilya Sutskever đảo ngược quyết định khi ký vào một lá thư của nhân viên yêu cầu OpenAI phục chức cho Sam Altman và bày tỏ sự hối tiếc vì đã "tham gia vào các hoạt động của hội đồng quản trị".

Sau khi Sam Altman trở lại làm Giám đốc điều hành OpenAI, Ilya Sutskever bị loại khỏi hội đồng quản trị OpenAI và vị trí của ông tại công ty trở nên không rõ ràng.

Dù Sam Altman tuyên bố "không có ác ý với Ilya Sutskever và muốn tiếp tục mối quan hệ công việc giữa chúng tôi", Giám đốc điều hành OpenAI từng thừa nhận với trang The Verge là "tổn thương và tức giận" do bị hội đồng quản trị cũ sa thải.

Trong nội bộ, Ilya Sutskever được coi là một "người có tầm nhìn xa" về AI và phong cách "hàn lâm" của ông không được các kỹ sư như Sam Altman và Chủ tịch Greg Brockman ưa thích. Tuy nhiên, những đóng góp của Sutskever vẫn được nhiều nhân viên tôn trọng.

Truyền thông Mỹ đưa tin căng thẳng nội bộ OpenAI vào năm ngoái xuất phát từ việc Sam Altman và các thành viên hội đồng quản trị bất đồng quan điểm liên quan đường hướng phát triển AI: Một bên hướng thương mại hóa, còn một bên muốn duy trì phi lợi nhuận. Trong đó Ilya Sutskever hướng đến phi lợi nhuận và sự an toàn của AI.

Hồi tháng 12.2023, trên mạng xã hội X, Elon Musk tán thành khi một người dùng gợi ý Ilya Sutskever nên gia nhập Tesla. Không chỉ vậy, tỷ phú này khẳng định xAI cũng sẵn sàng đón nhận nhà đồng sáng lập OpenAI.

Trước đó, Elon Musk nhiều lần bênh vực Ilya Sutskever khi nhà khoa học này trở thành tâm điểm gây tranh cãi trong vụ Sam Altman bị phế truất. Theo tỷ phú người Mỹ 52 tuổi, Ilya Sutskever phải ra quyết định đột ngột do ông nhận thấy OpenAI đang phát triển sản phẩm gây hại.

"Ilya là người có đạo đức và không ham muốn quyền lực. Ông ấy sẽ không hành động quyết liệt như vậy trừ khi thật cần thiết. Thế giới cần biết nếu OpenAI sở hữu thứ gì đó nguy hiểm cho nhân loại", ông viết trên X vào tháng 11.2023.

Với sự thúc giục của Elon Musk, Ilya Sutskever rời Google vào năm 2015 để trở thành người đồng sáng lập và Giám đốc khoa học OpenAI, khi đó là tổ chức phi lợi nhuận mà Elon Musk hình dung sẽ trở thành đối trọng với Google trong lĩnh vực AI.

Nhớ lại về Ilya Sutskever, Elon Musk cho biết: “Đó là một trong những cuộc chiến tuyển dụng khó khăn nhất mà tôi từng trải qua, nhưng thực sự là mấu chốt giúp OpenAI thành công". Ông nói thêm rằng Ilya Sutskever, ngoài việc thông minh thì còn là một “người tốt với ý tưởng tốt và trái tim tử tế".

Vào năm 2015, Elon Musk, Sam Altman, Greg Brockman cùng Ilya Sutskever đã thành lập OpenAI , tập trung vào sự phát triển an toàn và minh bạch của AI.

Elon Musk rời hội đồng quản trị OpenAI vào năm 2018 với lý do xung đột lợi ích để tập trung vào Tesla. Sau đó, Elon Musk nói rằng không thoải mái với định hướng chạy theo lợi nhuận mà OpenAI thực hiện dưới sự quản lý của Sam Altman.

Bài liên quan
Elon Musk: 'Màn trình diễn GPT-4o của OpenAI khiến tôi phải rùng mình'
Elon Musk không ấn tượng với sản phẩm mới nhất của OpenAI là mô hình trí tuệ nhân tạo (AI) mang tên GPT-4o.

(0) Bình luận
Nổi bật Một thế giới
Thủ tướng: Cơ chế, chính sách phù hợp sẽ nhân đôi, nhân ba sức mạnh
2 giờ trước Sự kiện
Trong chương trình kỳ họp thứ 8, sáng 23.11, các đại biểu Quốc hội thảo luận tại tổ về dự án Luật Quản lý và đầu tư vốn Nhà nước tại doanh nghiệp và dự án Luật Công nghiệp công nghệ số. Thủ tướng Phạm Minh Chính tham gia thảo luận tại tổ 8, gồm đại biểu Quốc hội các địa phương Vĩnh Long, Điện Biên, Kon Tum, Cần Thơ.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Cựu giám đốc phơi bày vấn đề ở OpenAI: Sam Altman chọn các sản phẩm hào nhoáng thay vì an toàn AI