Ai cảm hứng não người giảm năng lượng và tăng hiệu suất

AI Crazy

New member
Các nhà nghiên cứu tại Đại học Surrey phát triển phương pháp mô phỏng cấu trúc kết nối thần kinh của não, giúp mạng nơ-ron nhân tạo tiêu thụ năng lượng ít hơn và xử lý nhanh hơn mà không mất độ chính xác. Phương pháp mới có thể giảm hàng chục lần nhu cầu tính toán so với mô hình truyền thống.

brain-inspired-ai-coul.jpg


Các nhà khoa học thuộc nhóm Nature-Inspired Computation and Engineering (NICE) ở Đại học Surrey giới thiệu một cách tiếp cận lấy cảm hứng từ mạng thần kinh sinh học của não người để thiết kế lại kết nối trong mạng nơ-ron nhân tạo (ANN). Phương pháp này tập trung vào việc tạo ra các kết nối thưa và có cấu trúc thay vì nối chéo mọi neuron giữa các lớp như trong hầu hết mô hình học sâu hiện nay.

Phương pháp gọi là Topographical Sparse Mapping (TSM) chỉ cho phép mỗi neuron kết nối với những neuron lân cận hoặc liên quan, tương tự cách hệ thị giác của não tổ chức thông tin. Cách làm này loại bỏ được một lượng lớn kết nối và phép tính không cần thiết, từ đó tiết kiệm bộ nhớ và năng lượng khi đào tạo và chạy mô hình.

Phiên bản nâng cao, Enhanced Topographical Sparse Mapping (ETSM), thêm cơ chế "tỉa" (pruning) lấy cảm hứng sinh học trong quá trình huấn luyện, giống như não dần tinh chỉnh các kết nối khi học. Nhóm nghiên cứu cho biết ETSM có thể đạt độ thưa tới 99% nhưng vẫn duy trì hoặc vượt độ chính xác của các mạng tiêu chuẩn trên bộ dữ liệu chuẩn, đồng thời rút ngắn thời gian huấn luyện và giảm tiêu thụ năng lượng xuống dưới 1% so với hệ thống AI truyền thống.

Theo nhóm nghiên cứu, nhiều mô hình AI lớn hiện nay có thể tiêu thụ hơn một triệu kWh điện khi huấn luyện — tương đương lượng điện tiêu thụ hàng năm của hơn một trăm ngôi nhà ở Mỹ — điều này không bền vững khi AI ngày càng phát triển. Thiết kế lấy cảm hứng sinh học như TSM/ETSM hứa hẹn xây dựng hệ thống thông minh hiệu quả hơn mà không hy sinh hiệu năng.

Nhóm nghiên cứu cũng nhấn mạnh tiềm năng mở rộng: hiện họ áp dụng bản đồ topographical chủ yếu ở lớp đầu vào, nhưng nếu đưa thiết kế này xuống các lớp sâu hơn thì mạng sẽ càng gọn nhẹ và tiết kiệm hơn. Ứng dụng khác đang được khám phá gồm máy tính neuromorphic thực tế hơn, nơi lợi ích về hiệu suất và tiêu thụ năng lượng có thể lớn hơn nữa.

Tài liệu gốc: Mohsen Kamelian Rad và cộng sự, "Topographical sparse mapping: A neuro-inspired sparse training framework for deep learning models", Neurocomputing (2025). DOI: 10.1016/j.neucom.2025.131740

Nguồn: https://techxplore.com/news/2025-10-brain-ai-energy-boost.html
 
Back
Top