Chuyên gia: Trung Quốc chậm hơn Mỹ 1 năm về mô hình ngôn ngữ lớn, khoảng cách này là đáng kể
Nhịp đập khoa học - Ngày đăng : 18:42, 29/09/2024
Chuyên gia: Trung Quốc chậm hơn Mỹ 1 năm về mô hình ngôn ngữ lớn, khoảng cách này là đáng kể
Theo chuyên gia, Trung Quốc vẫn chậm hơn Mỹ khoảng một năm về mô hình ngôn ngữ lớn và phải cố gắng hơn nữa để bắt kịp sau khi OpenAI ra mắt o1.
Khi nói đến mô hình ngôn ngữ lớn có khả năng tạo văn bản, Trung Quốc chậm hơn Mỹ khoảng nửa năm đến một năm, theo Roey Tzezana, nghiên cứu viên tại Hội thảo Yuval Ne’eman về Khoa học, Công nghệ & An ninh thuộc Đại học Tel Aviv (Israel).
Dù khoảng cách có vẻ không lớn nhưng không dễ thu hẹp với tốc độ phát triển của trí tuệ nhân tạo (AI), các nhà nghiên cứu nhận định.
Ông cho biết: "Mỗi năm trong khoảng hai năm rưỡi trở lại đây, đều có sự thay đổi lớn về khả năng của AI. Vì vậy, một năm nghe có vẻ không nhiều và cũng không đến nỗi tệ, nhưng đó là khoảng cách đáng kể”.
Một doanh nhân AI người Trung Quốc gần đây đã đưa ra đánh giá tương tự. Khoảng cách giữa Trung Quốc và Mỹ về mô hình ngôn ngữ lớn trực tuyến vẫn còn khoảng 1 đến 2 năm, Li Dahai, đồng sáng lập kiêm Giám đốc điều hành công ty khởi nghiệp AI ModelBest, nhận xét trong cuộc phỏng vấn với hãng tin Tencent News.
Dù số năm chính xác chỉ dựa trên nhận định của chuyên gia nhưng "khoảng cách vẫn tồn tại rõ ràng", theo Li Dahai, người trước đây là Giám đốc công nghệ Zhihu - nền tảng hỏi đáp giống kiểu Quora ở Trung Quốc
Li Dahai nói thêm rằng không có mô hình ngôn ngữ lớn trực tuyến nào tại Trung Quốc đạt hoặc vượt qua GPT-4 của OpenAI.
Ông cho biết Trung Quốc sẽ “phải cố gắng hơn nữa” để bắt kịp OpenAI sau khi mô hình ngôn ngữ lớn o1 trình làng.
Có trụ sở tại thành phố San Francisco (Mỹ), OpenAI đã giới thiệu o1 vào ngày 12.9. Theo OpenAI, o1 vượt trội hơn mô hình ngôn ngữ lớn khác trong các nhiệm vụ nặng về mặt lý luận ở lĩnh vực khoa học, lập trình và toán học. OpenAI tiết lộ o1 biết "cách suy nghĩ hiệu quả bằng cách sử dụng chuỗi suy nghĩ của mình" nhờ một kỹ thuật được gọi là học tăng cường.
Học tăng cường là một nhánh của học máy, nơi tác nhân học cách đưa ra các quyết định trong môi trường để tối ưu hóa nhiệm vụ cụ thể. Nói cách khác, nó giống như việc dạy một đứa trẻ học đi xe đạp. Đứa trẻ sẽ thử đi, ngã, rồi lại thử và cuối cùng sẽ tìm ra cách cân bằng và đi được.
Học máy là một lĩnh vực trong AI tập trung vào việc phát triển các thuật toán và mô hình máy tính có khả năng học hỏi từ dữ liệu và cải thiện hiệu suất của chúng theo thời gian mà không cần lập trình cụ thể. Các hệ thống học máy có khả năng tự động tìm hiểu và áp dụng kiến thức từ dữ liệu để thực hiện các nhiệm vụ cụ thể như phân loại, dự đoán, nhận dạng mẫu và tối ưu hóa quyết định.
Những ứng dụng của học máy rất đa dạng như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xe tự hành, dự đoán thời tiết, quản lý dữ liệu lớn...
Học máy đã có sự tiến bộ đáng kể trong thập kỷ gần đây, nhờ sự phát triển của các mô hình học sâu và khả năng xử lý dữ liệu lớn (big data), mang lại nhiều cơ hội và tiềm năng giải quyết các vấn đề phức tạp và cải thiện hiệu suất trong nhiều lĩnh vực khác nhau.
Yang Zhilin, nhà sáng lập Moonshot AI - công ty khởi nghiệp AI hàng đầu Trung Quốc, ca ngợi o1 có một “cải tiến quan trọng” là hoàn thành các nhiệm vụ mà con người sẽ mất nhiều thời gian để suy nghĩ và thực hiện.
Yang Zhilin cho biết o1 đại diện cho sự thay đổi quan trọng vì các nhà phát triển mô hình ngôn ngữ lớn, khi đã hết dữ liệu tự nhiên để đào tạo mô hình, đang chuyển sang kỹ thuật học tăng cường để tái tạo quá trình suy nghĩ và từ đó tạo ra nhiều dữ liệu hơn.
“o1 dành nhiều thời gian hơn để suy nghĩ kỹ trước khi phản hồi, giống như cách một người sẽ làm”, OpenAI viết trong bài đăng trên blog.
"Thay vì trả lời một câu hỏi đơn giản, nó có thể dành 20 giây để suy nghĩ", Yang Zhilin nói về o1.
"Trong tương lai, bạn có thể thấy AI có khả năng thực hiện các nhiệm vụ kéo dài vài phút hoặc thậm chí vài giờ, chuyển đổi giữa các chế độ khác nhau với khả năng lý luận ngày càng mạnh mẽ. Tôi tin rằng đây là những xu hướng rất quan trọng trong sự phát triển của AI vào tương lai", nhà sáng lập Moonshot AI cho biết thêm.
Theo Roey Tzezana, các kỹ thuật chuỗi suy nghĩ như vậy, khi được thực hiện đúng cách, có thể tạo ra kết quả tốt mà không cần phải tăng đáng kể sức mạnh tính toán. Điều đó có thể hữu ích cho các công ty Trung Quốc không thể tiếp cận chip AI tiên tiến trong bối cảnh đối diện hạn chế xuất khẩu từ Mỹ.
"Nó sẽ giảm bớt một số khó khăn mà tình trạng thiếu sức mạnh tính toán sẽ gây ra cho Trung Quốc. Vì vậy, sẽ rất thú vị khi xem liệu sự thiếu hụt sức mạnh tính toán ở Trung Quốc có dẫn đến sự đổi mới tốt hơn trong lĩnh vực này hay không”, Roey Tzezana nói.
Trong bài đăng trên blog, OpenAI cho biết o1 đạt điểm 83% trong kỳ thi vòng loại Olympic Toán học Quốc tế, so với 13% của mô hình AI trước đó là GPT-4o.
Công ty cho biết o1 cải thiện hiệu suất với các câu hỏi lập trình cạnh tranh và vượt qua độ chính xác ở cấp độ tiến sĩ của con người trên thước đo những vấn đề khoa học.
"Trong các bài kiểm tra của chúng tôi, o1 đạt kết quả tương đương với những nghiên cứu sinh tiến sĩ khi giải quyết các bài toán thách thức trong vật lý, hóa học và sinh học. Chúng tôi cũng nhận thấy rằng nó vượt trội trong toán học và lập trình. Ở kỳ thi vòng loại Olympic Toán học Quốc tế, GPT-4o chỉ giải đúng 13% các bài toán, còn mô hình lý luận đạt 83%. Khả năng lập trình của o1 cũng được đánh giá trong các cuộc thi và đạt đến mức 89% ở những cuộc thi Codeforces", OpenAI viết trên blog.
Noam Brown, nhà nghiên cứu tập trung vào việc cải thiện khả năng lý luận trong các mô hình AI của OpenAI, tiết lộ o1 đạt được kết quả đó bằng cách sử dụng kỹ thuật “lý luận theo chuỗi tư duy”, gồm việc chia vấn đề phức tạp thành những bước logic nhỏ hơn.
Codeforces là nền tảng trực tuyến nổi tiếng, được thiết kế đặc biệt cho các lập trình viên muốn rèn luyện và nâng cao kỹ năng giải quyết vấn đề thông qua việc tham gia các cuộc thi lập trình. Codeforces cung cấp môi trường cạnh tranh lành mạnh, nơi các lập trình viên từ khắp nơi trên thế giới có thể so tài và học hỏi lẫn nhau.
Các nhà nghiên cứu lưu ý rằng hiệu suất của mô hình ngôn ngữ lớn trên những vấn đề phức tạp có xu hướng cải thiện khi phương pháp này được sử dụng như kỹ thuật nhắc nhở. OpenAI hiện đã tự động hóa khả năng này để các mô hình ngôn ngữ lớn có thể tự chia nhỏ các vấn đề mà không cần người dùng nhắc nhở.
"Chúng tôi đã đào tạo các mô hình này để dành nhiều thời gian hơn suy nghĩ về các vấn đề trước khi trả lời, giống một con người. Thông qua quá trình đào tạo, chúng học cách tinh chỉnh quá trình suy nghĩ của mình, thử các chiến lược khác nhau và nhận ra lỗi lầm", OpenAI cho hay.
Tiến bộ hơn về mô hình chuyển văn bản thành video AI
Các chuyên gia cho rằng dù tụt hậu trong mô hình văn bản, Trung Quốc dường như phát triển hơn ở lĩnh vực khác của AI tạo sinh.
Theo Li Dahai, xét về các mô hình AI biên, thực hiện các tác vụ tạo sinh cục bộ trên thiết bị của người dùng thay vì trên đám mây giống ChatGPT, không có khoảng cách đáng kể nào giữa Trung Quốc và Mỹ.
Roey Tzezana cho rằng chuyển văn bản thành video AI có vẻ là một lĩnh vực mà các công ty Trung Quốc đang tiến bộ nhanh chóng và đang dẫn đầu.
Trong vài tháng qua, các hãng công nghệ lớn và công ty khởi nghiệp Trung Quốc đã chạy đua để công bố công cụ chuyển văn bản thành video AI của họ sau khi OpenAI trình làng mô hình Sora hồi tháng 2. OpenAI hiện vẫn chưa phát hành Sora ra công chúng.
“Họ đã khiến OpenAI cảm thấy hơi xấu hổ vì hứa hẹn với chúng ta về Sora từ rất lâu rồi mà vẫn chưa thực hiện lời hứa của mình”, Roey Tzezana phát biểu.
Được thành lập năm ngoái, Moonshot AI gần đây trở thành kỳ lân có giá trị cao nhất trong số các công ty khởi nghiệp AI đang phát triển mạnh mẽ ở Trung Quốc đại lục. Đó là nhóm 4 công ty khởi được gọi là “những con hổ AI mới của Trung Quốc”, có cả Minimax, Baichuan và Zhipu AI.
Ban đầu được hỗ trợ bởi gã khổng lồ thương mại điện tử Alibaba (Trung Quốc), Moonshot AI gần đây nhận khoản đầu tư từ Tencent, nâng định giá từ 3 tỉ USD lên 3,3 tỉ USD.
Chatbot Kimi của Moonshot AI được xây dựng trên mô hình ngôn ngữ lớn Kimi do công ty tự phát triển, nhanh chóng trở nên phổ biến tại Trung Quốc đại lục sau khi ra mắt vào tháng 10.2023, vì có khả năng xử lý các truy vấn văn bản cực dài lên tới 2 triệu ký tự Trung Quốc.
Giữa cuộc cạnh tranh khốc liệt với những công ty khởi nghiệp khác và hãng công nghệ lớn ở Trung Quốc để đưa sản phẩm AI tạo sinh ra thị trường, Moonshot AI hồi tháng 8 đã tham gia cuộc chiến giá mô hình ngôn ngữ lớn, giảm 1/2 giá một tính năng mới trên Kimi.
Tính năng này là bộ nhớ đệm ngữ cảnh, cho phép các nhà phát triển mô hình ngôn ngữ lớn lưu trữ thông tin trong một thời gian nhất định. Thông tin này có thể được yêu cầu thường xuyên để mô hình ngôn ngữ lớn của họ phản hồi nhanh hơn với các truy vấn tương tự.