Microsoft sắp ra mắt chip AI đầu tiên để giảm phụ thuộc và cạnh tranh với Nvidia
Thế giới số - Ngày đăng : 20:10, 08/10/2023
Động thái này từ Microsoft được coi là nỗ lực nhằm giảm sự phụ thuộc vào bộ xử lý đồ họa (GPU) của Nvidia, vốn đang có nhu cầu cao và đang bị thiếu hụt nguồn cung.
Chip AI của Microsoft có tên mã Athena, được thiết kế cho máy chủ trung tâm dữ liệu. Dự kiến Athena sẽ cạnh tranh với GPU H100 hàng đầu của Nvidia, đang được Microsoft và các nhà cung cấp đám mây khác sử dụng để cung cấp sức mạnh cho các mô hình ngôn ngữ lớn và các ứng dụng AI khác.
The Information đưa tin về Athena lần đầu vào tháng 4. Chip này dự kiến sẽ được ra mắt tại hội nghị Ignite của Microsoft dự kiến diễn ra từ ngày 14 - 17.11.
Trong nỗ lực giảm chi phí chạy các mô hình generative AI, Microsoft đã phát triển chip AI có tên Athena từ năm 2019.
Theo The Information, ý tưởng đằng sau Athena có hai mục đích. Các lãnh đạo Microsoft nhận ra rằng công ty đang tụt lại phía sau Google và Amazon trong nỗ lực xây dựng chip nội bộ của riêng mình, một nguồn tin am hiểu về vấn đề này nói với The Information.
Ngoài ra, Microsoft được cho đang tìm kiếm các giải pháp thay thế rẻ hơn (các mô hình AI của họ hiện chạy trên GPU Nvidia) và quyết định xây dựng một chip ít tốn kém hơn. Hơn 300 nhân viên Microsoft làm việc trên chip này.
Sự phát triển của Athena diễn ra vào thời điểm nhu cầu về chip AI ngày càng tăng, đặc biệt mô hình ngôn ngữ lớn đòi hỏi nhiều sức mạnh tính toán để đào tạo và hoạt động. Kết quả là tình trạng thiếu chip AI đã đẩy giá sản phẩm lên cao.
Google và Amazon đang phát triển chip AI riêng, cho thấy thị trường chip AI sẽ tăng trưởng nhanh chóng.
OpenAI cũng khám phá việc sản xuất chip AI của riêng mình và tiến xa đến việc đánh giá mục tiêu mua lại tiềm năng, theo những người quen thuộc với kế hoạch của công ty. Bằng cách đó, "cha đẻ ChatGPT" hy vọng sẽ giảm bớt sự phụ thuộc vào Nvidia và các nhà sản xuất chip khác. Điều này cũng có thể giúp Microsoft cắt giảm chi phí và cải thiện hiệu suất các dịch vụ đám mây của mình.
Ít nhất là từ năm ngoái, OpenAI đã thảo luận về nhiều lựa chọn khác nhau để giải quyết tình trạng thiếu chip AI đắt tiền mà công ty dựa vào, theo những người quen thuộc với vấn đề này.
Các lựa chọn bao gồm xây dựng chip AI của riêng mình, hợp tác chặt chẽ hơn với các nhà sản xuất chip khác, gồm cả Nvidia, và cũng đa dạng hóa các nhà cung cấp ngoài Nvidia.
OpenAI từ chối bình luận về thông tin trên.
Sam Altman, Giám đốc điều hành OpenAI, đã coi việc mua thêm chip AI là ưu tiên hàng đầu của công ty. Ông đã công khai phàn nàn về sự khan hiếm của các GPU, một thị trường do Nvidia thống trị. Nvidia kiểm soát hơn 80% thị phần toàn cầu về chip phù hợp nhất để chạy các ứng dụng AI.
Nỗ lực có được nhiều chip hơn gắn liền với hai mối lo ngại lớn mà Sam Altman đã xác định: Sự thiếu hụt bộ xử lý tiên tiến cung cấp sức mạnh cho phần mềm của OpenAI; chi phí “choáng ngợp” liên quan đến việc vận hành phần cứng cần thiết để hỗ trợ các dự án và sản phẩm của họ.
Kể từ năm 2020, OpenAI đã phát triển các công nghệ generative AI trên một siêu máy tính khổng lồ do Microsoft (nhà tài trợ lớn nhất của hãng) chế tạo, sử dụng 10.000 GPU của Nvidia.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
Việc chạy ChatGPT rất tốn kém với OpenAI. Theo phân tích từ chuyên gia Stacy Rasgon của ngân hàng Bernstein, mỗi truy vấn tốn khoảng 4 xu. Nếu các truy vấn ChatGPT tăng lên bằng 1/10 quy mô tìm kiếm của Google, ban đầu OpenAI sẽ cần số GPU trị giá khoảng 48,1 tỉ USD và số chip trị giá khoảng 16 tỉ USD mỗi năm để duy trì hoạt động.
Nỗ lực phát triển chip AI của riêng mình sẽ đưa OpenAI vào một nhóm nhỏ các hãng công nghệ lớn như Google, Amazon, Microsoft đang tìm cách cố gắng kiểm soát quá trình thiết kế các chip quan trọng với hoạt động kinh doanh của họ.
Chưa rõ liệu OpenAI có tiếp tục kế hoạch xây dựng chip tùy chỉnh hay không. Theo các chuyên gia kỳ cựu trong ngành, làm như vậy sẽ là sáng kiến chiến lược lớn và một khoản đầu tư lớn với chi phí có thể lên tới hàng trăm triệu USD mỗi năm. Ngay cả khi cam kết tập trung tài nguyên cho nhiệm vụ này thì OpenAI cũng không đảm bảo được sự thành công.
Việc mua lại một công ty chip có thể đẩy nhanh quá trình xây dựng chip riêng của OpenAI, giống Amazon thông qua việc mua lại Annapurna Labs vào năm 2015.
Theo một trong những người quen thuộc với kế hoạch của OpenAI, công ty đã xem xét đến mức độ thực hiện công việc kiểm tra thông tin về một mục tiêu có thể mua lại. Chưa rõ được danh tính của công ty mà OpenAI nhắm đến.
Ngay cả khi OpenAI tiến hành các kế hoạch về chip tùy chỉnh, gồm cả việc mua lại, thì nỗ lực này có thể sẽ mất vài năm. Trong thời gian chờ đợi, công ty vẫn phải phụ thuộc vào các nhà cung cấp chip thương mại như Nvidia và Advanced Micro Devices (AMD).
Một số hãng công nghệ lớn đã xây dựng bộ xử lý của riêng họ trong nhiều năm nhưng kết quả vẫn còn hạn chế. Theo báo cáo của Reuters, nỗ lực sản xuất chip tùy chỉnh của Meta Platforms đã gặp phải nhiều vấn đề, khiến công ty phải loại bỏ một số chip AI của mình. Chủ sở hữu Facebook đang nghiên cứu một chip mới hơn có thể hỗ trợ tất cả các loại công việc AI.
Việc OpenAI xem xét sản xuất chip AI riêng có thể gợi ý rằng hãng đang có xu hướng giảm phụ thuộc Microsoft.
Nhu cầu về chip AI chuyên dụng đã tăng vọt kể từ khi ChatGPT ra mắt vào tháng 11.2022. Các chip cụ thể hoặc bộ tăng tốc AI là cần thiết để đào tạo và chạy công nghệ AI thế hệ mới nhất. Nvidia là một trong số ít nhà sản xuất chip sản xuất được chip AI hữu ích và chiếm lĩnh thị trường.
OpenAI có thể tốn hơn 700.000 USD/ngày để vận hành ChatGPT
Việc rất nhiều người trên thế giới sử dụng ChatGPT có thể làm OpenAI tiêu tốn hơn 700.000 USD mỗi ngày do cơ sở hạ tầng công nghệ đắt tiền mà chatbot AI này chạy trên đó, theo Dylan Patel, chuyên gia phân tích tại công ty nghiên cứu bán dẫn SemiAnalysis. Lý do vì ChatGPT yêu cầu sức mạnh tính toán khổng lồ để phản hồi yêu cầu của người dùng.
"Hầu hết chi phí này dựa trên các máy chủ đắt tiền mà OpenAI cần", Dylan Patel nói với trang The Information.
Trong cuộc gọi điện thoại với trang Insider, Dylan Patel cho biết việc OpenAI vận hành ChatGPT bây giờ thậm chí còn tốn kém hơn, vì ước tính ban đầu của ông dựa trên mô hình GPT-3.
GPT-4, mô hình mới nhất của OpenAI, thậm chí còn hao tốn tiền bạc hơn để chạy, Dylan Patel nói.
Dylan Patel và Afzal Ahmad, nhà phân tích khác tại SemiAnalysis, cho biết: “Việc đào tạo các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD. Song, chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào".
"Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí đào tạo hàng tuần", họ nhấn mạnh.