AI thúc đẩy hợp tác và cải thiện xe tự lái

AI Crazy

New member
Một nghiên cứu gần đây cho thấy agent AI có thể khuyến khích hành vi hợp tác ở con người bằng cơ chế phản hồi. Ý tưởng này có thể áp dụng cho xe tự lái, biến hành vi lái hợp tác thành lựa chọn có lợi hơn cho mọi người.

ai-thuc-day-hop-tac-va-cai-thien-xe-tu-lai-1.jpeg


Các nhà nghiên cứu Arend Hintze và Christoph Adami đã phân tích liệu hệ thống AI có thể giúp con người hợp tác hơn trong trò chơi “tài sản công” (public goods game). Trong trò chơi này, mỗi người chơi chọn đóng góp vào quỹ chung hoặc giữ lại cho mình; nhóm thịnh vượng nhất khi mọi người đều đóng góp, nhưng lợi ích cá nhân lại khuyến khích hành vi ích kỷ.

Nghiên cứu so sánh ba chính sách hành vi cho các agent AI được đưa vào trò chơi. Trong kịch bản đầu tiên, AI luôn hợp tác — nhưng điều đó không thay đổi hành vi của người chơi, vì con người vẫn hành động theo lợi ích cá nhân. Kịch bản thứ hai cho phép người chơi điều khiển AI, và nó phản tác dụng: con người đặt AI hợp tác trong khi chính họ không hợp tác, “thuê” hành vi tốt để tối đa hóa lợi ích riêng.

Kịch bản thứ ba tạo ra kết quả khả quan: AI mô phỏng hành vi của người mà nó tương tác. Nếu người chơi hợp tác, AI sẽ đáp lại hợp tác; nếu người chơi ích kỷ, AI sẽ phản chiếu lựa chọn đó. Cơ chế phản hồi này tạo ra vòng lặp tích cực, nơi hành vi hợp tác của con người được khen thưởng bằng hành vi hợp tác từ AI, từ đó nâng cao mức độ hợp tác chung.

Các tác giả gợi ý rằng nguyên lý này có thể áp dụng vào các tình huống thực tế, tiêu biểu là hệ thống xe tự lái. Nếu các phương tiện tự hành được thiết kế để ưu tiên hoặc “đáp lại” lái xe hợp tác (ví dụ nhường đường, phối hợp vào làn, điều phối di chuyển), một tỷ lệ lớn xe áp dụng chính sách tương tự có thể tạo ra phản hồi tích cực, khuyến khích mọi người — cả người điều khiển và hệ thống tự hành — hành xử hợp tác hơn.

Ứng dụng cụ thể bao gồm điều hướng và điều phối xe nhàn rỗi để phục vụ hành khách hiệu quả hơn, lập lịch sạc cho xe điện tự hành nhằm tránh chờ lâu và giảm áp lực lên lưới điện, cũng như hệ thống theo dõi và kết nối thị giác giữa các xe để tránh va chạm. Những giải pháp này dựa trên cơ chế thưởng/khen thưởng mà nhiều hệ thống AI hiện nay đã sử dụng để học hành vi tối ưu.

Nghiên cứu còn nhiều giới hạn: mô hình trong phòng thí nghiệm đơn giản hoá nhiều khía cạnh của đời thực và chưa xét hết các tác động xã hội, pháp lý hay đạo đức. AI không thể loại bỏ hoàn toàn tính ích kỷ, nhưng bằng cách điều chỉnh lợi ích và phản hồi trong hệ thống, nó có thể khiến hợp tác trở thành lựa chọn khôn ngoan hơn — đặc biệt khi các phương tiện tự hành dần phổ biến.

Nguồn: Digitaltrends
 
Back
Top