Khi trí tuệ nhân tạo (AI) ảnh hưởng đến cách chúng ta kinh doanh, học tập, tương tác với thế giới và thậm chí nấu những bữa ăn yêu thích, một số nhà nghiên cứu lo ngại những tiến bộ mới nhất của công nghệ này đang tạo ra những vấn đề mới, thách thức hoặc tác động tiêu cực với thế giới.
Thế nhưng, Zack Kass, cựu Giám đốc Go-to-Market (tiếp cận thị trường) tại OpenAI, lại coi AI như một món quà.
Zack Kass đã có cuộc trò chuyện với trang Insider để giải thích lý do tại sao ông luôn lạc quan về khả năng của AI trong việc giúp giải quyết các vấn đề toàn cầu và lý do thế giới phải sẵn sàng chịu một số chi phí khó chịu để phát huy hết tiềm năng của công nghệ này.
Ông đã làm gì ở OpenAI và tại sao lại rời đi?
- Tôi là một trong 100 nhân viên đầu tiên tại OpenAI và là nhân viên đầu tiên cũng như lãnh đạo nhóm Go-to-Market. Vì vậy, tôi phải xây dựng nền tảng cho một doanh nghiệp rất lớn ngày nay, doanh số bán hàng, quan hệ đối tác và sự thành công của khách hàng.
Sau một số vấn đề về gia đình, tôi đã đưa ra quyết định khó khăn nhất từ trước đến nay là trở về nhà ở thành phố Santa Barbara (bang California, Mỹ) và xây dựng sự nghiệp xoay quanh điều thực sự truyền cảm hứng cho tôi bây giờ, đó là quảng bá AI như tương lai của trải nghiệm con người. Khi rời đi, tôi đã dành rất nhiều thời gian để nói chuyện với Sam Altman (Giám đốc điều hành OpenAI) về cách tôi có thể tạo ra tác động lớn nhất, đồng thời phản biện rằng AI không phải là sự diệt vong hay u ám, tương lai không phải viễn cảnh đen tối và hậu tận thế mà lại tươi sáng, tràn đầy niềm vui và ít đau khổ hơn. Vì vậy, mục đích và sứ mệnh cơ bản hiện tại của tôi là quảng bá cho một tương lai tươi sáng thực sự với AI.
Ông mô tả mình là nhà tương lai học về AI. Điều đó có ý nghĩa gì với ông?
- Với tôi, đó là việc giúp hình dung ra một tương lai mà kinh doanh, văn hóa, y học, giáo dục được hỗ trợ bởi AI. Đó là việc giúp mọi người tưởng tượng về doanh nghiệp và cuộc sống của họ chịu ảnh hưởng bởi AI; cách khai thác AI tốt nhất để đảm bảo tính đạo đức hoặc tính xã hội, cũng như cách quản lý nó tốt nhất.
Vậy trong ngắn hạn, ông thấy đâu là lợi ích xã hội quan trọng nhất với AI?
- Trong ngắn hạn, tôi nghĩ chúng ta sẽ thấy rất nhiều tác động của AI với thế giới thứ nhất (phương Tây) thực sự gây khó chịu cho mọi người, nhưng thực sự mang lại lợi ích. Tôi nghĩ chúng ta sẽ làm việc ít hơn rất nhiều và mọi người lo sợ về tác động đó. Song nói chung, tôi chào đón điều này. Hãy làm việc ít hơn, thực hiện những điều mang lại cho chúng ta mục đích sống và hy vọng.
Ở thế giới thứ hai và thứ ba, không khó để tưởng tượng mỗi đứa trẻ đều có một giáo viên được hỗ trợ bởi AI - công nghệ biết những gì chúng biết, biết chúng thích học như thế nào và có thể giao tiếp với gia đình để giúp chúng tốt nhất. Không khó để tưởng tượng rằng mỗi người sẽ có một bác sĩ đa khoa được hỗ trợ bởi AI, có thể giúp họ chẩn đoán và ít nhất là phân loại các vấn đề cho bác sĩ chuyên khoa.
Tuần trước, lần đầu tiên trong vòng 60 năm, chúng ta đã phát hiện ra loại kháng sinh mới chống lại vi khuẩn Staphylococcus Aureus (MRSA) có khả năng kháng thuốc, nhờ vào AI, dù điều này không được chú ý.
Có phải tất cả những người ông biết trong ngành đều lạc quan như vậy không?
- Đó thực sự là câu hỏi hay. Tôi không nghĩ rằng việc bày tỏ một tâm trạng vô cùng tích cực về AI đang phổ biến vì điều đó được xem là ngây thơ. Tôi nghĩ rằng điều đúng nhất giữa những người trong ngành và đồng nghiệp là tất cả họ đều nhận ra tiềm năng đáng kinh ngạc của công nghệ này. Tôi chưa gặp một người trong ngành nào mà tôi tôn trọng lại không thừa nhận sự thật rằng đây có thể là công nghệ cuối cùng mà con người từng phát minh ra (hay đánh dấu sự kết thúc của việc con người phát minh công nghệ mới) và kể từ đây trở đi, AI sẽ thúc đẩy chúng ta với tốc độ vượt trội, ngày càng sống trọn vẹn hơn, vui tươi và ít đau khổ hơn. Thế nhưng, tôi cũng nghĩ rằng đúng là nhiều người trong ngành có cái nhìn tiêu cực hơn về AI hơn so với tôi. Tôi không thấy bất kỳ bằng chứng nào chỉ ra AI sẽ muốn giết tất cả chúng ta.
Vậy ông thấy những rủi ro gì nếu AI không phải là kẻ hủy diệt thế giới?
- Tôi nghĩ về cơ bản có bốn rủi ro đáng chú ý:
1. Con người trở nên lười biếng và kém thông minh do quá phụ thuộc vào AI.
2. Mất bản sắc cá nhân.
3. Chủ nghĩa hiện sinh.
4. AI bị kẻ xấu sử dụng cho mục đích có hại.
Tôi nghĩ có một khả năng thực sự rất lớn là một hoặc nhiều thế hệ có thể dừng lại trong việc tiến hóa do tác động của việc không còn phải giải quyết các vấn đề thú vị và khó khăn. Nếu AI giải quyết được mọi vấn đề của chúng ta, não bộ con người sẽ làm gì? Tôi nghĩ có khả năng hợp lý là ít nhất trong một khoảng thời gian ngắn, não bộ của chúng ta sẽ ngừng phát triển.
Hiện tại, tôi có rất nhiều lý do để nghĩ rằng đây không phải là vấn đề lâu dài, giống internet tạo ra truyền thông xã hội và truyền thông xã hội sẽ được coi là điều tiêu cực với một thế hệ, sau đó chúng ta sẽ giải quyết vấn đề này giống như phát minh ra than. Than đã giết nhiều thợ mỏ than và gây ra nhiều vấn đề xấu về môi trường, và bây giờ chúng ta đang loại bỏ than. Theo quan điểm của tôi, đây chỉ là những hậu quả ngắn hạn.
Thứ hai là sự mất bản sắc cá nhân. Vấn đề thực sự sẽ là những người đã dành cả đời, nhiều thế hệ, để quan tâm đến một nghề nghiệp hoặc nghệ thuật cụ thể, giống những người làm việc trong cuộc Cách mạng Công nghiệp hoặc thợ rèn trước đó, truyền lại những nghề nghiệp, cách làm trong gia đình và đột nhiên họ mất bản sắc cá nhân khi chúng ta phát minh ra những công cụ mới để thay thế cho công việc của họ.
Vấn đề thực sự lớn là chủ nghĩa hiện sinh và toàn bộ ý tưởng xung quanh chủ nghĩa hiện sinh là hợp lý. Đó là liệu chúng ta có thể đào tạo một mô hình AI phù hợp với lợi ích của con người không? Ý kiến của tôi là có, chúng ta có thể và sẽ làm được. Có rất nhiều người quan tâm đến việc này, gần như chắc chắn đây là điều sẽ được quản lý chặt chẽ nhất. Bạn có thể mong đợi rằng ủy ban Quốc hội Mỹ sẽ muốn xem xét tất cả mô hình AI được phát hành. Tôi đoán là đến năm 2026, có thể là 2025, họ sẽ cần phải đáp ứng các tiêu chuẩn đồng bộ quốc tế giống như cách mà chúng ta đã xây dựng các tiêu chuẩn quốc tế rất nhanh chóng hoặc về giải trừ vũ khí hạt nhân và năng lượng hạt nhân. Mọi người đều quan tâm đến việc giải quyết vấn đề này. Bạn không thể tận hưởng phần thắng của mình nếu AI bắt làm nô lệ bạn.
Chủ nghĩa hiện sinh là một trường phái triết học tập trung vào ý kiến rằng tồn tại cá nhân và trách nhiệm cá nhân là chủ thể trung tâm của trải nghiệm nhân loại.
Ông có tự tin rằng AI sẽ không chống lại chúng ta bằng cách nào đó không?
- Không ai có thể cho tôi lý do AI muốn bắt chúng ta làm nô lệ nếu nó được điều chỉnh và đào tạo dựa trên trải nghiệm của con người. Tại sao AI lại muốn làm hại con người? Tôi cũng nghĩ việc nhân vật hóa AI là rất nguy hiểm. Tôi nghĩ rằng chúng tôi quá lo lắng về Terminator Skynet và không nghĩ điều đó thú vị chút nào.
Thuật ngữ Terminator Skynet thường được sử dụng để nói về một tình huống tưởng tượng trong tương lai khi AI trở nên quá mạnh mẽ và có khả năng tự quyết định, dẫn đến những hậu quả tiêu cực cho nhân loại, giống như kịch bản của loạt phim Terminator.
Vậy điều chỉnh ngành sẽ như thế nào để giữ mọi thứ ổn định, đồng thời thúc đẩy sự đổi mới cần thiết đưa chúng ta đến với trí tuệ nhân tạo tổng hợp (AGI)?
- Ba điều có thể ngăn cản chúng ta xây dựng AGI là thiếu năng lực tính toán, thiếu hụt năng lượng và quy định quá mức hoặc chính sách tồi. Chúng ta đã tạo ra cuộc khủng hoảng khí hậu thông qua chính sách khi coi năng lượng hạt nhân là bất hợp pháp vào những năm 70 và 80. Bây giờ, chúng ta đang ngồi bàn luận về vấn đề biến đổi khí hậu khi đang đốt hàng nghìn tỉ tấn than. Tôi lấy năng lượng hạt nhân làm ví dụ điển hình nhất về cách một chính sách, đặc biệt bị ảnh hưởng bởi nhận thức của công chúng, có thể tác động thực sự đáng kinh ngạc với trải nghiệm nhân loại.
Tôi nghĩ sẽ thực sự thông minh nếu các nhà hoạch định chính sách về cơ bản yêu cầu các công ty công bố các tác động kinh tế hàng năm của việc áp dụng AI và quản lý nạn tham nhũng vốn có trong những việc như thế này. Thực sự rất khó để quản lý, nhưng tôi nghĩ chúng ta nên nhận thức rõ ràng về những gì đang xảy ra trong xã hội và trong thế giới kinh doanh này.
AGI là một AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người. AGI cũng có thể tự cải thiện, tạo ra một vòng phản hồi vô tận với khả năng vô hạn.
Làm cách nào để Mỹ điều hướng các loại quy định đó khi lo ngại về việc các quốc gia khác, chẳng hạn Trung Quốc, đang phát triển AI?
- Một trong những rủi ro mà tôi nghĩ nhiều người chỉ ra là việc AI phát triển nhanh như vậy có thể truyền cảm hứng cho một cuộc chạy đua vũ trang. Tôi nghĩ rằng điều thực sự quan trọng là phải thừa nhận rằng AGI, nếu được điều chỉnh hợp lý, sẽ mang lại giá trị cho loài người. Do đó, mục tiêu nên dành cho những tác nhân giỏi trên thế giới, bất kể họ là ai, xây dựng AGI phù hợp và chia sẻ nó với thế giới.
Như đã nói, tôi nghĩ điều bắt buộc là chúng ta phải xây dựng các liên minh quốc tế để tạo ra tiêu chuẩn hợp lý cho AI. Đó có vẻ là cách thực sự tốt để buộc các tác nhân làm việc tập thể, xây dựng theo những điều đúng đắn. Chúng ta làm điều đó càng sớm thì càng bắt đầu xác định được ai thực sự đang cố gắng xây dựng AGI vì lợi ích cho nhân loại thay vì lợi ích của quốc gia, cá nhân hoặc nhóm.