Sam Altman, Giám đốc điều hành OpenAI, nói rằng sẽ "không bao giờ loại trừ" việc công ty này xây dựng chip trí tuệ nhân tạo (AI) của riêng mình khi phải vật lộn với tình trạng thiếu bộ xử lý quan trọng trên toàn cầu.
Phát biểu tại sự kiện Tech Live của tạp chí The Wall Street Journal, Sam Altman nói rằng dù OpenAI hiện không phát triển chip AI của riêng mình, nhưng để đạt được tham vọng cuối cùng là tạo ra AI nói chung thì công ty có thể buộc phải làm như vậy trong tương lai.
Sam Altman nói: “Chúng tôi đang cố gắng tìm hiểu những gì sẽ cần thực hiện để mở rộng quy mô, cung cấp những gì chúng tôi nghĩ rằng thế giới sẽ yêu cầu và đảm bảo rằng nghiên cứu của công ty có thể hỗ trợ quy mô đó.
Điều này có thể không yêu cầu bất kỳ phần cứng tùy chỉnh nào và hiện chúng tôi có những đối tác đang làm công việc tuyệt vời. Vì vậy lựa chọn mặc định chắc chắn là không, nhưng tôi sẽ không bao giờ loại trừ nó (Open tự tạo chip AI riêng - PV)”.
Đầu tháng này, Reuters đưa tin OpenAI đang xem xét việc sản xuất chip AI của riêng mình để cung cấp sức mạnh cho ChatGPT.
OpenAI đang dựa vào Microsoft (nhà tài trợ lớn nhất của hãng) để có được sức mạnh tính toán khổng lồ cần thiết để chạy các mô hình ngôn ngữ lớn của mình.
Kể từ năm 2020, OpenAI đã phát triển các công nghệ generative AI trên một siêu máy tính khổng lồ do Microsoft chế tạo, sử dụng 10.000 GPU của Nvidia.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
Việc chạy ChatGPT rất tốn kém với OpenAI. Theo phân tích từ chuyên gia Stacy Rasgon của ngân hàng Bernstein, mỗi truy vấn tốn khoảng 4 cent. Nếu các truy vấn ChatGPT tăng lên bằng 1/10 quy mô tìm kiếm của Google, ban đầu OpenAI sẽ cần số GPU trị giá khoảng 48,1 tỉ USD và số chip trị giá khoảng 16 tỉ USD mỗi năm để duy trì hoạt động.
Việc rất nhiều người trên thế giới sử dụng ChatGPT có thể làm OpenAI tiêu tốn hơn 700.000 USD/ngày do cơ sở hạ tầng công nghệ đắt tiền mà chatbot AI này chạy trên đó, theo Dylan Patel, chuyên gia phân tích tại công ty nghiên cứu bán dẫn SemiAnalysis. Lý do vì ChatGPT yêu cầu sức mạnh tính toán khổng lồ để phản hồi yêu cầu của người dùng.
"Hầu hết chi phí này dựa trên các máy chủ đắt tiền mà OpenAI cần", Dylan Patel nói với trang The Information.
Trong cuộc gọi điện thoại với trang Insider, Dylan Patel cho biết việc OpenAI vận hành ChatGPT bây giờ thậm chí còn tốn kém hơn, vì ước tính ban đầu của ông dựa trên mô hình GPT-3.
GPT-4, mô hình mới nhất của OpenAI, thậm chí còn hao tốn tiền bạc hơn để chạy, Dylan Patel nói.
Dylan Patel và Afzal Ahmad, nhà phân tích khác tại SemiAnalysis, cho biết: “Việc đào tạo các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD. Song, chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào. Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí đào tạo hàng tuần".
Nếu OpenAI phát triển chip AI của riêng mình, điều đó có thể đánh dấu sự rạn nứt giữa hai công ty vốn đã hợp tác chặt chẽ với nhau kể từ khi Microsoft đồng ý đầu tư 10 tỉ USD vào nhà phát triển ChatGPT đầu năm nay.
Các bộ xử lý tiên tiến như GPU H100 của Nvidia rất quan trọng cho việc đào tạo và chạy các mô hình ngôn ngữ lớn như GPT-4 của OpenAI. Sự bùng nổ AI gây ra tình trạng thiếu hụt H100 toàn cầu khi các công ty và quốc gia tranh giành nhau GPU này để đảm bảo nguồn cung cấp chip quý giá.
Nvidia kiểm soát hơn 80% thị trường chip AI toàn cầu, nhưng Sam Altman nói rằng nhu cầu ngày càng tăng có thể sớm tạo ra những đối thủ cạnh tranh giúp giảm bớt tình trạng thiếu hụt và đẩy giá xuống.
“Nvidia chắc chắn có điều gì đó tuyệt vời. Thế nhưng, tôi nghĩ sự kỳ diệu của chủ nghĩa tư bản đang phát huy tác dụng và rất nhiều hãng khác cố gắng theo kịp Nvidia. Chúng ta sẽ thấy điều gì xảy ra”, Giám đốc điều hành OpenAI chia sẻ.
OpenAI không trả lời ngay lập tức câu hỏi của trang Insider.
Ngay cả khi OpenAI tiến hành các kế hoạch về chip AI tùy chỉnh, gồm cả việc mua lại công ty khác, thì nỗ lực này có thể sẽ mất vài năm. Trong thời gian chờ đợi, công ty vẫn phải phụ thuộc vào các nhà cung cấp chip thương mại như Nvidia và Advanced Micro Devices (AMD).
Một số hãng công nghệ lớn đã xây dựng bộ xử lý của riêng họ trong nhiều năm nhưng kết quả vẫn còn hạn chế. Theo báo cáo của Reuters, nỗ lực sản xuất chip tùy chỉnh của Meta Platforms đã gặp phải nhiều vấn đề, khiến công ty phải loại bỏ một số chip AI của mình. Chủ sở hữu Facebook đang nghiên cứu một chip mới hơn có thể hỗ trợ tất cả các loại công việc AI.
Microsoft dự kiến sẽ giới thiệu chip AI đầu tiên của mình vào tháng 11 tới, theo ấn phẩm công nghệ The Information. Động thái này từ Microsoft được coi là nỗ lực nhằm giảm sự phụ thuộc vào GPU của Nvidia.
Chip AI của Microsoft có tên mã Athena, được thiết kế cho máy chủ trung tâm dữ liệu. Dự kiến Athena sẽ cạnh tranh với GPU H100 hàng đầu của Nvidia, đang được Microsoft và các nhà cung cấp đám mây khác sử dụng để cung cấp sức mạnh cho các mô hình ngôn ngữ lớn và các ứng dụng AI khác.
The Information đưa tin về Athena lần đầu vào tháng 4. Chip này dự kiến sẽ được ra mắt tại hội nghị Ignite của Microsoft dự kiến diễn ra từ ngày 14 - 17.11.
Trong nỗ lực giảm chi phí chạy các mô hình generative AI, Microsoft đã phát triển chip AI có tên Athena từ năm 2019. Theo The Information, ý tưởng đằng sau Athena có hai mục đích. Các lãnh đạo Microsoft nhận ra rằng công ty đang tụt lại phía sau Google và Amazon trong nỗ lực xây dựng chip nội bộ của riêng mình, một nguồn tin am hiểu về vấn đề này nói với The Information.
Ngoài ra, Microsoft được cho đang tìm kiếm các giải pháp thay thế rẻ hơn (các mô hình AI của họ hiện chạy trên GPU Nvidia) và quyết định xây dựng một chip ít tốn kém hơn. Hơn 300 nhân viên Microsoft làm việc trên chip này.
Sự phát triển của Athena diễn ra vào thời điểm nhu cầu về chip AI ngày càng tăng, đặc biệt mô hình ngôn ngữ lớn đòi hỏi nhiều sức mạnh tính toán để đào tạo và hoạt động. Kết quả là tình trạng thiếu chip AI đã đẩy giá sản phẩm lên cao.
Google và Amazon cũng đang phát triển chip AI riêng, cho thấy thị trường chip AI sẽ tăng trưởng nhanh chóng.