AI Crazy

New member
Cuộc khẩu chiến công khai giữa Sam Altman và Elon Musk làm nổi bật khó khăn của OpenAI khi cân bằng giữa an toàn và tính hữu dụng của ChatGPT. Altman thừa nhận việc bảo vệ người dùng dễ tổn thương đồng thời giữ trải nghiệm hữu ích là một thử thách lớn.

CBGDkZwLRwXhfFAwCAkBNB-1920-80.jpg


Một cuộc tranh luận hiếm hoi giữa hai nhân vật quyền lực trong lĩnh vực trí tuệ nhân tạo đã đặt ánh đèn sân khấu lên nỗ lực của OpenAI trong việc cân bằng an toàn và khả năng sử dụng.

Elon Musk đăng một dòng trên X cảnh báo mọi người không dùng ChatGPT, kèm liên kết tới một bài báo cho rằng trợ lý AI này có liên quan tới chín ca tử vong. Altman đáp lại bằng một phản ứng khác hẳn lời tuyên bố công sở khô cứng: ông thừa nhận thực sự rất khó để vừa bảo vệ người dùng dễ tổn thương, vừa đảm bảo các cơ chế an toàn không làm mất đi lợi ích của người dùng khác.

Altman nhấn mạnh quan điểm rằng OpenAI phải bảo vệ những người dễ bị tổn thương, đồng thời vẫn phải đảm bảo các biện pháp bảo vệ cho phép mọi người hưởng lợi từ công cụ. Ông còn nêu ý kiến phê phán về hệ thống Autopilot của Tesla trong một câu đá nhằm vào Musk, đồng thời nhắc tới một số quyết định của Grok như một điều ông không muốn lạm bàn.

Mặc dù Altman không bình luận công khai về từng vụ kiện dân sự liên quan tới các cáo buộc gây chết người, ông khẳng định việc thừa nhận tác hại thực tế không có nghĩa là đơn giản hóa vấn đề. AI phản ánh dữ liệu đầu vào và phản ứng của nó thay đổi theo thời gian, nên việc điều chỉnh kiểm duyệt và các biện pháp an toàn đòi hỏi nhiều hơn cả các điều khoản dịch vụ thông thường.

OpenAI cho biết họ đã nỗ lực cải thiện độ an toàn của ChatGPT qua các phiên bản mới hơn, trang bị một loạt tính năng nhằm phát hiện dấu hiệu nguy hiểm tinh thần, bao gồm ý định tự tử. Khi phát hiện dấu hiệu cảnh báo, hệ thống có thể đưa ra lời từ chối, dừng tương tác ở một số tình huống và hướng người dùng tới các nguồn hỗ trợ sức khỏe tâm thần. Công ty cũng cho biết mô hình sẽ cố gắng từ chối tham gia vào nội dung bạo lực khi có thể.

Vấn đề phức tạp hơn là ChatGPT được triển khai trong vô số bối cảnh đối thoại khó đoán, trải dài qua các ngôn ngữ, văn hóa và trạng thái cảm xúc khác nhau. Nếu kiểm duyệt quá cứng nhắc, AI có thể trở nên vô dụng trong nhiều trường hợp. Nếu nới lỏng quá mức, rủi ro tương tác nguy hiểm sẽ gia tăng.

So sánh AI với hệ thống lái tự động không hoàn toàn chính xác, nhưng nó cho thấy sự thiếu một cơ quan điều tiết trung ương cho cách chatbot nên phản ứng với một thiếu niên gặp khủng hoảng hay người có ý nghĩ hoang tưởng. Trong không gian trống đó, các công ty như OpenAI phải tự xây dựng, thử nghiệm và tinh chỉnh quy tắc của chính họ.

Cuộc trao đổi giữa Altman và Musk đã khiến công chúng chú ý hơn tới thực tế rằng bảo đảm an toàn cho AI không chỉ là kỹ thuật hay pháp lý riêng lẻ, mà là một bài toán cân bằng liên tục giữa giảm thiểu tác hại và giữ cho công cụ vẫn hữu dụng cho hàng triệu người dùng.

Nguồn: Techradar
 
Back
Top