Nhóm nhà khoa học Trung Quốc cho biết đã mô phỏng một mô hình trí tuệ nhân tạo (AI) bắt chước hành vi của các tế bào thần kinh trong não người để đạt được sức mạnh tính toán mà không tiêu tốn nhiều năng lượng như các bộ xử lý dựa trên silicon.
Theo bài viết được công bố trên tạp chí Nature Computational Science, các nhà nghiên cứu đã phát triển một mô hình bắc cầu giữa các mạng AI lớn và phức tạp bên ngoài với hoạt động nhỏ và phức tạp bên trong não bộ.
Các chuyên gia ngành công nghiệp cho biết phát hiện của nhóm nghiên cứu có thể đánh dấu một bước ngoặt trong phát triển AI, thúc đẩy khám phá sâu hơn về những giải pháp điện toán không phụ thuộc vào chip silicon. Chip silicon là một thành phần điện tử cực nhỏ, được làm chủ yếu từ chất bán dẫn silicon. Nó đóng vai trò như "bộ não" của hầu hết các thiết bị điện tử hiện đại, từ smartphone, máy tính bảng, máy tính để bàn cho đến các thiết bị IoT (internet vạn vật) và ô tô tự lái.
Xu hướng AI hiện tại chủ yếu xoay quanh việc xây dựng các mạng thần kinh ngày càng lớn, một cách tiếp cận đang gây lo ngại về nhu cầu năng lượng không bền vững và thiếu khả năng giải thích.
Ngược lại, bộ não người, với 100 tỉ tế bào thần kinh và khoảng 100.000 tỉ kết nối thần kinh, tiêu thụ khoảng 20 watt điện. Mỗi tế bào thần kinh trong não đa dạng và phức tạp hơn bất kỳ mô hình AI nào hiện có.
Các nhà nghiên cứu Lý Quốc Kỳ và Từ Bác từ Viện Tự động hóa thuộc Học viện Khoa học Trung Quốc cùng Thiên Vĩnh Hồng từ Đại học Bắc Kinh lưu ý rằng hai mô hình có mối quan hệ cộng sinh.
Song trong khi các tế bào thần kinh của não sản xuất và truyền tải các tín hiệu phức tạp có thể thay đổi theo thời gian, mô hình AI dựa trên chip silicon, được các nhà nghiên cứu mô tả là "sự trừu tượng thô" của tế bào thần kinh sinh học, chỉ có thể tạo ra số 0 và 1.
Các nhà nghiên cứu đã sử dụng một mô hình toán học lần đầu tiên được mô tả vào năm 1952 bởi các nhà thần kinh học Alan Hodgkin và Andrew Huxley để xây dựng một mạng thần kinh tái tạo hiệu quả khả năng của mô hình lớn hơn, đơn giản hơn trong cấu trúc nhỏ hơn, phức tạp bên trong.
Theo bài viết trên tạp chí Nature Computational Science, mạng lưới gồm 4 tế bào thần kinh integrate-and-fire rò rỉ có thể tái tạo hành vi của một tế bào thần kinh Hodgkin-Huxley thông qua hàng loạt các chứng minh lý thuyết và mô phỏng.
Tế bào thần kinh integrate-and-fire neuron là mô hình toán học đơn giản hóa được sử dụng rộng rãi trong thần kinh học để mô tả hoạt động của các tế bào thần kinh sinh học. Mô hình này giúp các nhà khoa học hiểu rõ hơn về cách các tế bào thần kinh xử lý thông tin và truyền tín hiệu.
Mô hình hoạt động như thế nào?
- Tích hợp: Tế bào thần kinh liên tục nhận các tín hiệu đầu vào từ các tế bào thần kinh khác. Các tín hiệu này được tích hợp lại, giống như việc bạn tích lũy một khoản tiền.
- Ngưỡng: Khi tổng các tín hiệu đầu vào đạt đến một ngưỡng nhất định (giống như bạn đã tiết kiệm đủ tiền để mua một món đồ), tế bào thần kinh sẽ "bắn" một xung điện.
- Khôi phục: Sau khi bắn, tế bào thần kinh sẽ trải qua một giai đoạn khôi phục, trong đó nó không thể bắn lại ngay lập tức.
Tại sao mô hình này lại hữu ích?
- Đơn giản hóa: Mô hình này giúp đơn giản hóa các quá trình phức tạp xảy ra bên trong tế bào thần kinh, giúp các nhà khoa học dễ dàng phân tích và mô phỏng.
- Linh hoạt: Mô hình này có thể được điều chỉnh để mô phỏng các loại tế bào thần kinh khác nhau và các loại tín hiệu khác nhau.
- Ứng dụng rộng rãi: Mô hình này được sử dụng trong nhiều lĩnh vực, từ thần kinh học đến khoa học máy tính, để nghiên cứu về học máy, mạng thần kinh nhân tạo và các hệ thống phức tạp khác.
Hạn chế của mô hình
- Đơn giản hóa quá mức: Mô hình này bỏ qua nhiều chi tiết phức tạp của tế bào thần kinh sinh học, có thể dẫn đến những kết quả không chính xác trong một số trường hợp.
- Không mô tả đầy đủ các đặc tính của tế bào thần kinh: Mô hình này không thể mô tả đầy đủ các đặc tính điện sinh lý phức tạp của tế bào thần kinh thực tế.
Trong một cuộc phỏng vấn với hãng thông tấn nhà nước Tân Hoa Xã, đồng tác giả Lý Quốc Kỳ cho biết cách tiếp cận sáng tạo của nhóm nghiên cứu không chỉ duy trì mức độ hiệu suất mà còn tăng gấp đôi tốc độ xử lý, đồng thời giảm sử dụng bộ nhớ bốn lần.
"Sự phát triển này có thể mở đường cho việc tối ưu hóa các mô hình AI trong các ứng dụng thực tế, tăng cường hiệu suất. Các kết quả thử nghiệm xác nhận rằng mô hình phức tạp nội bộ hiệu quả và đáng tin cậy cho các nhiệm vụ phức tạp, cung cấp những phương pháp và lý thuyết mới để kết hợp động lực học thần kinh khoa học vào AI", Lý Quốc Kỳ lý giải.
Jason Eshraghian, phó giáo sư kỹ thuật điện và máy tính của Đại học California, cho biết nghiên cứu này thúc đẩy việc khám phá phần cứng "ngoài máy tính dựa trên silicon".
"Bằng cách xem xét lại và đào sâu mối liên hệ giữa thần kinh học và AI, chúng tôi có thể khám phá ra những cách mới để xây dựng các hệ thống AI hiệu quả hơn, mạnh mẽ hơn và thậm chí có thể giống não hơn", ông nói.
Tương lai của phát triển AI có thể phụ thuộc vào việc kết hợp bắt chước chi tiết động lực học tế bào thần kinh sinh học với việc mở rộng các mô hình lớn hơn và phần cứng mạnh mẽ hơn, được điều khiển bởi những tiến bộ liên tục trong thần kinh học.
Viện Tự động hóa của Học viện Khoa học Trung Quốc đã đạt được một cột mốc AI quan trọng khác vào tháng 6 khi hợp tác với tập đoàn SynSense (Thụy Sĩ) cho ra mắt Speck - chip thần kinh giống não với cảm biến thị giác động tích hợp. Cảm biến thị giác động là loại cảm biến đặc biệt, được thiết kế để bắt chước khả năng thị giác của con người, nhưng có ưu điểm vượt trội là khả năng phản ứng nhanh với những thay đổi trong môi trường xung quanh. Khi được tích hợp vào một hệ thống, nó trở thành "đôi mắt điện tử" luôn sẵn sàng quan sát và phản hồi.
Theo các nhà phát triển, Speck không chỉ tăng độ chính xác của nhiệm vụ lên 9% mà còn giảm mức tiêu thụ điện năng trung bình xuống 60%.