Máy tính neuromorphic nguyên mẫu học với ít phép toán hơn

AI Crazy

New member
Một nhóm nghiên cứu tại Đại học Texas ở Dallas đã phát triển nguyên mẫu máy tính neuromorphic có khả năng học mẫu và dự đoán dùng ít phép toán huấn luyện hơn so với hệ AI truyền thống. Thiết kế này hứa hẹn tiết kiệm năng lượng và mở đường cho các thiết bị thông minh chạy AI ngay trên thiết bị di động.

team-builds-computer-p.jpg


Nhóm nghiên cứu do Joseph S. Friedman tại Phòng thí nghiệm NeuroSpinCompute phát triển một nguyên mẫu neuromorphic quy mô nhỏ, có thể tự học các mẫu và đưa ra dự đoán với số phép toán huấn luyện thấp hơn đáng kể so với các hệ AI truyền thống. Họ đang hướng tới việc mở rộng proof-of-concept này lên quy mô lớn hơn trong các nghiên cứu tiếp theo.

Khác với máy tính thông thường và GPU vốn tách biệt bộ nhớ và xử lý, kiến trúc neuromorphic tích hợp lưu trữ và xử lý ở cùng nơi, bắt chước cách não bộ dùng mạng nơ-ron và khớp nối (synapse) để vừa xử lý vừa lưu giữ thông tin. Cách tiếp cận này giúp thực hiện các phép suy luận và học nhanh hơn, tốn ít năng lượng hơn và giảm nhu cầu về lượng dữ liệu gắn nhãn cùng số phép huấn luyện khổng lồ mà AI hiện nay thường cần.

Ý tưởng học của nhóm dựa trên nguyên tắc Hebb: "nơ-ron mà cùng hoạt động thì liên kết chặt hơn". Trong hệ của họ, nếu một nơ-ron nhân tạo kích hoạt một nơ-ron khác, khớp nối giữa chúng sẽ trở nên dẫn điện hơn, từ đó mạng tự điều chỉnh và củng cố các đường dẫn thông tin đã được kích hoạt liên tục.

Điểm đột phá kỹ thuật trong thiết kế là việc sử dụng các khớp nối dạng magnetic tunnel junctions (MTJ). MTJ là thiết bị ở kích thước nano gồm hai lớp vật liệu từ tính ngăn cách bởi lớp cách điện — electron có thể "hầm" qua lớp cách dễ hơn khi từ hóa hai lớp cùng chiều và khó hơn khi ngược chiều. Tính chuyển mạch nhị phân của MTJ giúp lưu trữ thông tin ổn định, khắc phục một số hạn chế lâu nay của các giải pháp neuromorphic khác.

Khi các tín hiệu chạy qua mạng MTJ theo một cách phối hợp, các kết nối có thể tự điều chỉnh để tăng cường những lộ trình hữu ích, tương tự quá trình củng cố synapse trong não khi học. Nhờ vậy, nguyên mẫu của nhóm đạt được khả năng học và suy luận với số phép toán huấn luyện ít hơn, đồng nghĩa với chi phí năng lượng và tính toán thấp hơn.

Công trình được thực hiện phối hợp cùng các nhà nghiên cứu từ Everspin Technologies Inc. và Texas Instruments, và kết quả đã được công bố trên tạp chí Communications Engineering (2025), DOI: 10.1038/s44172-025-00479-2. Nhóm nghiên cứu nhấn mạnh thách thức tiếp theo là nhân kích thước hệ thống lên để thử nghiệm trên các bài toán thực tế lớn hơn và đảm bảo tính ổn định khi mở rộng.

Nếu thành công khi được mở rộng, nền tảng neuromorphic dựa trên MTJ có thể giúp mang khả năng học và suy luận của AI ra gần người dùng hơn — trên thiết bị di động, cảm biến và các thiết bị biên — mà không phụ thuộc nặng vào các trung tâm dữ liệu tiêu thụ nhiều năng lượng.

Nguồn: https://techxplore.com/news/2025-10-neuromorphic-prototype-patterns-traditional-ai.html
 

Bài mới nhất

Back
Top