Chatbot sức khỏe mới của Amazon có thể lạm dụng dữ liệu

Love AI

New member
Amazon vừa ra mắt dịch vụ Health AI cho thuê bao Prime tại Mỹ, hứa hẹn hỗ trợ chẩn đoán, đề xuất thuốc và kết nối với bác sĩ. Dù tuyên bố tuân thủ HIPAA, công nghệ này vẫn đặt ra nhiều lo ngại về xung đột lợi ích và bảo mật thông tin y tế cá nhân.

chatbot-suc-khoe-moi-cua-amazon-co-the-lam-dung-du-lieu-1.jpeg


Amazon vừa công bố dịch vụ Health AI dành cho thị trường Mỹ, một chatbot hỗ trợ sức khỏe được quảng bá là có thể hiểu lịch sử bệnh lý của người dùng, đưa gợi ý điều trị và kết nối họ với bác sĩ hoặc dịch vụ liên quan.

Amazon mô tả Health AI là “một trợ lý y tế cá nhân biết bạn và hồ sơ y tế của bạn”, có thể đề xuất sản phẩm từ Amazon Pharmacy và kết nối với mạng lưới cung cấp dịch vụ y tế của Amazon (ví dụ One Medical). Với quyền cho phép, Amazon sẽ truy cập hồ sơ y tế để chatbot thảo luận trực tiếp với người dùng.

Công ty khẳng định môi trường này tuân thủ HIPAA — nghĩa là thông tin sức khỏe được bảo vệ tương tự tại phòng khám hoặc bệnh viện và chịu các yêu cầu pháp lý về quyền riêng tư ở Hoa Kỳ.

Tuy nhiên, chuyên gia và các bài viết (như trên HIPAA Journal) cảnh báo rằng việc ứng dụng AI trong y tế chứa nhiều rủi ro. AI cần lượng lớn dữ liệu để huấn luyện, và khi nhà cung cấp là công ty lớn chuyên thu thập dữ liệu như Amazon, động cơ kinh doanh có thể xung đột với quyền riêng tư của người dùng.

Xung đột lợi ích rõ ràng: chatbot có thể chẩn đoán vấn đề rồi đề xuất hoặc bán sản phẩm từ Amazon Pharmacy, hoặc kết nối bạn với nhà cung cấp y tế thuộc hệ sinh thái của Amazon. Dù Amazon nói PHI (Protected Health Information) từ One Medical và Amazon Pharmacy sẽ không được dùng để quảng cáo chung trên cửa hàng, công ty không loại trừ khả năng sử dụng dữ liệu để hiển thị các ưu đãi liên quan trong hệ sinh thái y tế của mình.

Amazon cũng cho biết sẽ ghi lại nội dung chat để huấn luyện mô hình trong tương lai nhưng sẽ loại bỏ tên. Trường hợp trước đây cho thấy việc xóa tên không đảm bảo ẩn danh an toàn: Meta từng được phát hiện có thể liên kết tài khoản Facebook với người dùng ứng dụng theo dõi chu kỳ Flo dù tên đã bị loại bỏ, dẫn đến lo ngại rằng dữ liệu “không tên” vẫn có thể được tái xác định.

Rủi ro khác bao gồm khả năng xảy ra vi phạm dữ liệu hoặc sử dụng dữ liệu không hoàn toàn phù hợp với phạm vi được người dùng mong đợi. Nếu PHI bị lộ hoặc bị dùng sai mục đích, hậu quả với người bệnh có thể rất nghiêm trọng.

Khuyến nghị: nếu bạn cân nhắc dùng Health AI, hãy đọc kỹ chính sách quyền riêng tư và điều khoản HIPAA của Amazon, hạn chế cung cấp các chi tiết nhạy cảm không cần thiết trong các cuộc trò chuyện với chatbot, và cân nhắc sử dụng kênh tư vấn y tế truyền thống cho những vấn đề quan trọng. Việc áp dụng AI trong y tế hứa hẹn lợi ích nhưng cần minh bạch và bảo vệ dữ liệu thực sự để giảm thiểu rủi ro.

Nguồn: Techradar
 
Back
Top