Sam Altman dự đoán rằng "cuộc khủng hoảng nặng nề" bởi sự thiếu hụt chip đắt tiền cần thiết để vận hành các công cụ trí tuệ nhân tạo (AI) như ChatGPT sẽ giảm bớt vào năm tới.

CEO OpenAI đoán thời điểm tình trạng thiếu hụt chip AI đắt tiền như H100 sẽ giảm bớt

Sơn Vân | 13/11/2023, 22:59

Sam Altman dự đoán rằng "cuộc khủng hoảng nặng nề" bởi sự thiếu hụt chip đắt tiền cần thiết để vận hành các công cụ trí tuệ nhân tạo (AI) như ChatGPT sẽ giảm bớt vào năm tới.

Sam Altman, Giám đốc điều hành OpenAI, nói với trang The Financial Times rằng ông kỳ vọng tình trạng thiếu chip sẽ giảm bớt vào 2024 khi các công ty cạnh tranh với sản phẩm hấp dẫn nhất lĩnh vực AI hiện tại là bộ xử lý đồ họa (GPU) H100 trị giá 40.000 USD của Nvidia.

Các doanh nghiệp như OpenAI, vốn đi đầu trong cuộc bùng nổ generative AI năm nay, đã phụ thuộc vào Nvidia để có được các GPU tiên tiến, cung cấp sức mạnh tính toán cần thiết giúp ứng dụng như ChatGPT hoạt động hiệu quả.

Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.

OpenAI được đảm bảo có các GPU đắt tiền với sự hỗ trợ tài chính từ Microsoft, công ty đã đặt cược hàng tỉ USD vào nhà sản xuất ChatGPT đầu năm nay.

Kể từ năm 2020, OpenAI đã phát triển các công nghệ generative AI trên một siêu máy tính khổng lồ do Microsoft chế tạo, sử dụng 10.000 GPU của Nvidia.

Thành công của Nvidia trong việc bán GPU đắt tiền cho các hãng AI trong năm nay là hơn mong đợi. Nvidia trở thành một trong số ít công ty ở Thung lũng Silicon có vốn hóa thị trường hơn 1.000 tỉ USD.

Gã khổng lồ chip Mỹ đặt mục tiêu sản xuất 500.000 GPU vào năm 2023, nhưng đang tìm cách tăng gấp ba sản lượng lên ít nhất 1,5 triệu chiếc trong 2024.

Tại một cuộc phỏng vấn, Sam Altman nói: “Nvidia chắc chắn có điều gì đó tuyệt vời. Thế nhưng, tôi nghĩ sự kỳ diệu của chủ nghĩa tư bản đang phát huy tác dụng và rất nhiều hãng khác cố gắng theo kịp Nvidia. Chúng ta sẽ thấy điều gì xảy ra”. Các công ty muốn cạnh tranh với Nvidia có Google, Microsoft, AMD.

Dù Nvidia đã đóng vai trò to lớn trong việc thúc đẩy sự bùng nổ AI năm nay nhưng Giám đốc điều hành Jensen Huang (Hoàng Nhân Huân) vẫn tỏ ra thận trọng. Tại sự kiện do The Harvard Business Review tổ chức tuần trước, Hoàng Nhân Huân nói: “Không có công ty nào đảm bảo được sự tồn tại”.

ceo-openai-doan-thoi-diem-tinh-trang-thieu-hut-chip-ai-dat-tien-nhu-h100-se-giam-bot.jpg
Sam Altman dự đoán rằng sự thiếu hụt chip đắt tiền cần thiết để vận hành các công cụ AI sẽ giảm bớt vào năm tới - Ảnh: Getty Images

Giữa tháng 10 vừa qua, Sam Altman tuyên bố sẽ "không bao giờ loại trừ" việc OpenAI xây dựng chip AI của riêng mình khi phải vật lộn với tình trạng thiếu bộ xử lý quan trọng trên toàn cầu.

Phát biểu tại sự kiện Tech Live của tạp chí The Wall Street Journal, Sam Altman nói rằng dù OpenAI hiện không phát triển chip AI của riêng mình, nhưng để đạt được tham vọng cuối cùng là tạo ra AGI (AI tổng quát) thì công ty có thể buộc phải làm như vậy trong tương lai.

AGI đã được coi là mục tiêu cuối cùng của lĩnh vực AI vì về mặt lý thuyết, đại diện cho thời điểm khi loài người tạo ra thứ gì đó thông minh bằng hoặc hơn chính mình.

Giám đốc điều hành OpenAI nói: “Chúng tôi đang cố gắng tìm hiểu những gì sẽ cần thực hiện để mở rộng quy mô, cung cấp những gì chúng tôi nghĩ rằng thế giới sẽ yêu cầu và đảm bảo rằng nghiên cứu của công ty có thể hỗ trợ quy mô đó.

Điều này có thể không yêu cầu bất kỳ phần cứng tùy chỉnh nào và hiện chúng tôi có những đối tác đang làm công việc tuyệt vời. Vì vậy lựa chọn mặc định chắc chắn là không, nhưng tôi sẽ không bao giờ loại trừ nó (Open tự tạo chip AI riêng - PV)”.

Đầu tháng 10, Reuters đưa tin OpenAI đang xem xét việc sản xuất chip AI của riêng mình để cung cấp sức mạnh cho ChatGPT.

OpenAI đang dựa vào Microsoft (nhà tài trợ lớn nhất của hãng) để có được sức mạnh tính toán khổng lồ cần thiết để chạy các mô hình ngôn ngữ lớn của mình.

Việc chạy ChatGPT rất tốn kém với OpenAI. Theo phân tích từ chuyên gia Stacy Rasgon của ngân hàng Bernstein, mỗi truy vấn tốn khoảng 4 cent. Nếu các truy vấn ChatGPT tăng lên bằng 1/10 quy mô tìm kiếm của Google, ban đầu OpenAI sẽ cần số GPU trị giá khoảng 48,1 tỉ USD và số chip trị giá khoảng 16 tỉ USD mỗi năm để duy trì hoạt động.

Nếu OpenAI phát triển chip AI của riêng mình, điều đó có thể đánh dấu sự rạn nứt giữa hai công ty vốn đã hợp tác chặt chẽ với nhau kể từ khi Microsoft đồng ý đầu tư 10 tỉ USD vào nhà phát triển ChatGPT đầu năm nay.

Các GPU tiên tiến như H100 của Nvidia rất quan trọng cho việc đào tạo và chạy các mô hình ngôn ngữ lớn như GPT-4 hay GPT-4 Turbo của OpenAI. Sự bùng nổ AI gây ra tình trạng thiếu hụt H100 toàn cầu khi các công ty và quốc gia tranh giành nhau GPU này để đảm bảo nguồn cung cấp chip quý giá.

Ngay cả khi OpenAI tiến hành các kế hoạch về chip AI tùy chỉnh, gồm cả việc mua lại công ty khác, thì nỗ lực này có thể sẽ mất vài năm. Trong thời gian chờ đợi, công ty vẫn phải phụ thuộc vào các nhà cung cấp chip thương mại như Nvidia và AMD.

Một số hãng công nghệ lớn đã xây dựng bộ xử lý của riêng họ trong nhiều năm nhưng kết quả vẫn còn hạn chế. Theo Reuters, nỗ lực sản xuất chip tùy chỉnh của Meta Platforms đã gặp phải nhiều vấn đề, khiến công ty phải loại bỏ một số chip AI của mình. Chủ sở hữu Facebook đang nghiên cứu một chip mới hơn có thể hỗ trợ tất cả các loại công việc AI.

Microsoft dự kiến sẽ giới thiệu chip AI đầu tiên của mình vào tháng 11 tới, theo ấn phẩm công nghệ The Information. Động thái này từ Microsoft được coi là nỗ lực nhằm giảm sự phụ thuộc vào GPU của Nvidia.

Chip AI của Microsoft có tên mã Athena, được thiết kế cho máy chủ trung tâm dữ liệu. Dự kiến Athena sẽ cạnh tranh với GPU H100 hàng đầu của Nvidia, đang được Microsoft và các nhà cung cấp đám mây khác sử dụng để cung cấp sức mạnh cho các mô hình ngôn ngữ lớn và các ứng dụng AI khác.

The Information đưa tin về Athena lần đầu vào tháng 4. Chip này dự kiến sẽ được ra mắt tại hội nghị Ignite của Microsoft dự kiến diễn ra từ ngày 14 - 17.11.

Trong nỗ lực giảm chi phí chạy các mô hình generative AI, Microsoft đã phát triển chip AI có tên Athena từ năm 2019. Theo The Information, ý tưởng đằng sau Athena có hai mục đích. Các lãnh đạo Microsoft nhận ra rằng công ty đang tụt lại phía sau Google và Amazon trong nỗ lực xây dựng chip nội bộ của riêng mình, một nguồn tin am hiểu về vấn đề này nói với The Information.

Ngoài ra, Microsoft được cho đang tìm kiếm các giải pháp thay thế rẻ hơn (các mô hình AI của họ hiện chạy trên GPU Nvidia) và quyết định xây dựng một chip ít tốn kém hơn. Hơn 300 nhân viên Microsoft làm việc trên chip này.

Sự phát triển của Athena diễn ra vào thời điểm nhu cầu về chip AI ngày càng tăng, đặc biệt mô hình ngôn ngữ lớn đòi hỏi nhiều sức mạnh tính toán để đào tạo và hoạt động. Kết quả là tình trạng thiếu chip AI đã đẩy giá sản phẩm lên cao.

Google và Amazon cũng đang phát triển chip AI riêng, cho thấy thị trường chip AI sẽ tăng trưởng nhanh chóng.

Bài liên quan
Các nhà khoa học Trung Quốc nói chip mới làm nhiệm vụ AI nhanh hơn Nvidia A100 3.000 lần
Theo nghiên cứu mới, các nhà khoa học Trung Quốc đã tạo ra một chip nhanh hơn và tiết kiệm năng lượng hơn đáng kể so với các chip trí tuệ nhân tạo (AI) hiệu suất cao hiện nay khi thực hiện một số nhiệm vụ như nhận dạng hình ảnh và lái ô tô tự động.

(0) Bình luận
Nổi bật Một thế giới
Thủ tướng: Cơ chế, chính sách phù hợp sẽ nhân đôi, nhân ba sức mạnh
3 giờ trước Sự kiện
Trong chương trình kỳ họp thứ 8, sáng 23.11, các đại biểu Quốc hội thảo luận tại tổ về dự án Luật Quản lý và đầu tư vốn Nhà nước tại doanh nghiệp và dự án Luật Công nghiệp công nghệ số. Thủ tướng Phạm Minh Chính tham gia thảo luận tại tổ 8, gồm đại biểu Quốc hội các địa phương Vĩnh Long, Điện Biên, Kon Tum, Cần Thơ.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
CEO OpenAI đoán thời điểm tình trạng thiếu hụt chip AI đắt tiền như H100 sẽ giảm bớt