AI Crazy
New member
Nghiên cứu mới cho thấy AI sinh tạo có thể hỗ trợ lên danh sách mục tiêu cho phân tích quyết định, nhưng chất lượng tổng thể vẫn yếu nếu không có can thiệp của con người. Kết hợp gợi ý của AI với đánh giá chuyên gia đem lại kết quả tốt hơn.
Một nghiên cứu được công bố trên tạp chí Decision Analysis phát hiện rằng trí tuệ nhân tạo sinh tạo (GenAI) hữu ích trong việc sáng tạo ý tưởng mục tiêu cho quyết định tổ chức và chính sách, nhưng các bộ mục tiêu do AI tạo ra thường không đầy đủ và có chồng chéo nếu không được con người hiệu chỉnh.
Trong phân tích quyết định, xác định mục tiêu là bước nền tảng — trước khi đánh giá phương án, phân bổ nguồn lực hay thiết kế chính sách, người ra quyết định phải biết rõ mình muốn đạt được gì. Nghiên cứu nhấn mạnh AI là cộng sự brainstorm giá trị, nhưng để đạt chất lượng phân tích vẫn cần một con người tham gia xác nhận và tinh chỉnh.
Công trình 'ChatGPT vs. Experts: Can GenAI Develop High-Quality Organizational and Policy Objectives?' do Jay Simon (American University) và Johannes Ulrich Siebert (Management Center Innsbruck) thực hiện. Họ so sánh các bộ mục tiêu do GenAI sinh — gồm GPT-4o, Claude 3.7, Gemini 2.5 và Grok-2 — với bộ mục tiêu do chuyên gia phân tích quyết định soạn trong sáu nghiên cứu trước đó trên Decision Analysis. Mỗi bộ được chấm theo chín tiêu chí chính từ tư duy tập trung giá trị (value-focused thinking), như tính đầy đủ, khả năng phân rã, và tính trùng lặp.
Kết quả cho thấy AI thường tạo ra các mục tiêu riêng lẻ có vẻ hợp lý, nhưng khi xem xét cả tập thì thường thiếu chiều sâu, có nhiều mục trùng lặp và đôi khi lẫn cả 'mục tiêu phương tiện' mặc dù đã có hướng dẫn rõ ràng tránh làm điều này. Như các tác giả nhận xét, AI có thể liệt kê những điều có thể quan trọng, nhưng chưa thể phân biệt đúng điều nào thực sự quan trọng.
Ralph Keeney, một người tiên phong của tư duy tập trung giá trị, nhận xét rằng cả hai danh sách (AI và chuyên gia) đều tốt hơn phần lớn các cá nhân đơn lẻ, nhưng không nên dùng trực tiếp cho phân tích quyết định chất lượng — chỉ các mục tiêu nền tảng mới nên xuất hiện khi đánh giá các lựa chọn.
Để cải thiện đầu ra của GenAI, nhóm nghiên cứu thử nhiều chiến lược hỏi — trong đó có suy luận theo chuỗi (chain-of-thought) và phương pháp chuyên gia phê bình rồi sửa lại (critique-and-revise). Khi kết hợp cả hai kỹ thuật, chất lượng danh sách mục tiêu do AI tạo tăng đáng kể — bộ mục tiêu trở nên ngắn gọn hơn, tập trung và có cấu trúc logic hơn.
Tác giả Simon nói rằng GenAI thể hiện tốt ở một số tiêu chí, nhưng vẫn gặp khó trong việc cho ra các bộ mục tiêu mạch lạc và không trùng lặp; do đó chuyên gia phân tích quyết định vẫn cần thiết để tinh chỉnh và xác thực đầu ra của AI. Siebert bổ sung rằng GenAI nên được dùng để hỗ trợ, không thay thế, phán đoán chuyên môn — khi con người và AI hợp tác, họ tận dụng được điểm mạnh của nhau để ra quyết định tốt hơn.
Nghiên cứu kết thúc bằng mô hình lai bốn bước dành cho người ra quyết định, tích hợp brainstorm bằng GenAI với tinh chỉnh của chuyên gia để đảm bảo các mục tiêu dùng trong phân tích là thiết yếu, có thể phân rã và đầy đủ. Tham khảo: Jay Simon và cộng sự, ChatGPT vs. Experts: Can GenAI Develop High-Quality Organizational and Policy Objectives?, Decision Analysis (2025). DOI: 10.1287/deca.2025.0387
Nguồn: https://techxplore.com/news/2025-11-generative-ai-brainstorm-human-expertise.html
Một nghiên cứu được công bố trên tạp chí Decision Analysis phát hiện rằng trí tuệ nhân tạo sinh tạo (GenAI) hữu ích trong việc sáng tạo ý tưởng mục tiêu cho quyết định tổ chức và chính sách, nhưng các bộ mục tiêu do AI tạo ra thường không đầy đủ và có chồng chéo nếu không được con người hiệu chỉnh.
Trong phân tích quyết định, xác định mục tiêu là bước nền tảng — trước khi đánh giá phương án, phân bổ nguồn lực hay thiết kế chính sách, người ra quyết định phải biết rõ mình muốn đạt được gì. Nghiên cứu nhấn mạnh AI là cộng sự brainstorm giá trị, nhưng để đạt chất lượng phân tích vẫn cần một con người tham gia xác nhận và tinh chỉnh.
Công trình 'ChatGPT vs. Experts: Can GenAI Develop High-Quality Organizational and Policy Objectives?' do Jay Simon (American University) và Johannes Ulrich Siebert (Management Center Innsbruck) thực hiện. Họ so sánh các bộ mục tiêu do GenAI sinh — gồm GPT-4o, Claude 3.7, Gemini 2.5 và Grok-2 — với bộ mục tiêu do chuyên gia phân tích quyết định soạn trong sáu nghiên cứu trước đó trên Decision Analysis. Mỗi bộ được chấm theo chín tiêu chí chính từ tư duy tập trung giá trị (value-focused thinking), như tính đầy đủ, khả năng phân rã, và tính trùng lặp.
Kết quả cho thấy AI thường tạo ra các mục tiêu riêng lẻ có vẻ hợp lý, nhưng khi xem xét cả tập thì thường thiếu chiều sâu, có nhiều mục trùng lặp và đôi khi lẫn cả 'mục tiêu phương tiện' mặc dù đã có hướng dẫn rõ ràng tránh làm điều này. Như các tác giả nhận xét, AI có thể liệt kê những điều có thể quan trọng, nhưng chưa thể phân biệt đúng điều nào thực sự quan trọng.
Ralph Keeney, một người tiên phong của tư duy tập trung giá trị, nhận xét rằng cả hai danh sách (AI và chuyên gia) đều tốt hơn phần lớn các cá nhân đơn lẻ, nhưng không nên dùng trực tiếp cho phân tích quyết định chất lượng — chỉ các mục tiêu nền tảng mới nên xuất hiện khi đánh giá các lựa chọn.
Để cải thiện đầu ra của GenAI, nhóm nghiên cứu thử nhiều chiến lược hỏi — trong đó có suy luận theo chuỗi (chain-of-thought) và phương pháp chuyên gia phê bình rồi sửa lại (critique-and-revise). Khi kết hợp cả hai kỹ thuật, chất lượng danh sách mục tiêu do AI tạo tăng đáng kể — bộ mục tiêu trở nên ngắn gọn hơn, tập trung và có cấu trúc logic hơn.
Tác giả Simon nói rằng GenAI thể hiện tốt ở một số tiêu chí, nhưng vẫn gặp khó trong việc cho ra các bộ mục tiêu mạch lạc và không trùng lặp; do đó chuyên gia phân tích quyết định vẫn cần thiết để tinh chỉnh và xác thực đầu ra của AI. Siebert bổ sung rằng GenAI nên được dùng để hỗ trợ, không thay thế, phán đoán chuyên môn — khi con người và AI hợp tác, họ tận dụng được điểm mạnh của nhau để ra quyết định tốt hơn.
Nghiên cứu kết thúc bằng mô hình lai bốn bước dành cho người ra quyết định, tích hợp brainstorm bằng GenAI với tinh chỉnh của chuyên gia để đảm bảo các mục tiêu dùng trong phân tích là thiết yếu, có thể phân rã và đầy đủ. Tham khảo: Jay Simon và cộng sự, ChatGPT vs. Experts: Can GenAI Develop High-Quality Organizational and Policy Objectives?, Decision Analysis (2025). DOI: 10.1287/deca.2025.0387
Nguồn: https://techxplore.com/news/2025-11-generative-ai-brainstorm-human-expertise.html
Bài viết liên quan