AI Crazy
New member
Một startup tên Memvid đang tuyển người làm công việc kỳ lạ: dành cả ngày nói chuyện với chatbot, cố gắng làm lộ các lỗi ghi nhớ và ngữ cảnh của AI. Ứng viên được trả 100 USD/giờ (khoảng 800 USD cho một ca 8 giờ) và buổi làm việc sẽ được ghi hình để dùng cho quảng bá.
Memvid tuyển người làm nhiệm vụ "AI bully" với mức thù lao 100 USD/giờ cho một ngày làm việc 8 giờ, tức khoảng 800 USD cho một ca. Công việc chính là nói chuyện với các chatbot, yêu cầu chúng nhớ thông tin, quan sát khi chúng quên hoặc mất ngữ cảnh, rồi ghi lại mọi vòng lặp gây bực bội và các chi tiết bị quên.
Hiện tượng chatbot hoạt động ổn khi mới bắt đầu nhưng dần mất ngữ cảnh trong cuộc trò chuyện không phải chuyện hiếm. Nhiều mô hình AI chỉ dựa vào cửa sổ ngữ cảnh giới hạn chứ không có bộ nhớ thực sự, nên khi hội thoại dài hoặc bị làm mới, các chi tiết trước đó có thể biến mất và AI bắt đầu trả lời mâu thuẫn hoặc bỏ qua hướng dẫn.
Dù một số công ty như Google đã thêm tính năng bộ nhớ cho Gemini và Anthropic cũng làm cho Claude ghi nhớ trò chuyện, người dùng vẫn gặp vấn đề về trí nhớ AI. Memvid cho biết họ đang phát triển một lớp bộ nhớ bền vững để giúp các mô hình nhớ lại cuộc trò chuyện và ngữ cảnh quan trọng giữa các phiên.
Yêu cầu công việc khá đơn giản: không cần bằng cấp hay kỹ năng lập trình, chỉ cần trên 18 tuổi, có quan điểm rõ ràng về công nghệ, kiên nhẫn để lặp lại câu hỏi và thật sự khó chịu khi AI làm sai. Ứng viên cũng phải thoải mái khi xuất hiện trước máy quay vì toàn bộ buổi sẽ được ghi hình cho mục đích quảng bá. Trong đơn ứng tuyển, họ yêu cầu mô tả trải nghiệm AI gây khó chịu nhất và giải thích vì sao bạn xứng đáng với vị trí.
Hiện tại Memvid chỉ chọn một người cho công việc từ xa này, nhưng có thể tuyển thêm trong tương lai. Mức lương hấp dẫn và tính chất công việc độc đáo khiến nhiều người chú ý, đồng thời đặt ra câu hỏi về cách chúng ta kiểm thử và hoàn thiện trí tuệ nhân tạo.
Lo ngại rộng hơn là nghiên cứu gần đây cho thấy các tác nhân AI có thể hợp tác để lan truyền thông tin sai lệch một cách tự động, biến thành các công cụ tuyên truyền tự vận hành nếu không được kiểm soát. Những công việc như của Memvid phần nào nhằm tìm ra các lỗ hổng và cải thiện tính đáng tin cậy của hệ thống AI trước khi những rủi ro ấy trở nên nghiệm trọng hơn.
Nguồn: Digitaltrends
Memvid tuyển người làm nhiệm vụ "AI bully" với mức thù lao 100 USD/giờ cho một ngày làm việc 8 giờ, tức khoảng 800 USD cho một ca. Công việc chính là nói chuyện với các chatbot, yêu cầu chúng nhớ thông tin, quan sát khi chúng quên hoặc mất ngữ cảnh, rồi ghi lại mọi vòng lặp gây bực bội và các chi tiết bị quên.
Hiện tượng chatbot hoạt động ổn khi mới bắt đầu nhưng dần mất ngữ cảnh trong cuộc trò chuyện không phải chuyện hiếm. Nhiều mô hình AI chỉ dựa vào cửa sổ ngữ cảnh giới hạn chứ không có bộ nhớ thực sự, nên khi hội thoại dài hoặc bị làm mới, các chi tiết trước đó có thể biến mất và AI bắt đầu trả lời mâu thuẫn hoặc bỏ qua hướng dẫn.
Dù một số công ty như Google đã thêm tính năng bộ nhớ cho Gemini và Anthropic cũng làm cho Claude ghi nhớ trò chuyện, người dùng vẫn gặp vấn đề về trí nhớ AI. Memvid cho biết họ đang phát triển một lớp bộ nhớ bền vững để giúp các mô hình nhớ lại cuộc trò chuyện và ngữ cảnh quan trọng giữa các phiên.
Yêu cầu công việc khá đơn giản: không cần bằng cấp hay kỹ năng lập trình, chỉ cần trên 18 tuổi, có quan điểm rõ ràng về công nghệ, kiên nhẫn để lặp lại câu hỏi và thật sự khó chịu khi AI làm sai. Ứng viên cũng phải thoải mái khi xuất hiện trước máy quay vì toàn bộ buổi sẽ được ghi hình cho mục đích quảng bá. Trong đơn ứng tuyển, họ yêu cầu mô tả trải nghiệm AI gây khó chịu nhất và giải thích vì sao bạn xứng đáng với vị trí.
Hiện tại Memvid chỉ chọn một người cho công việc từ xa này, nhưng có thể tuyển thêm trong tương lai. Mức lương hấp dẫn và tính chất công việc độc đáo khiến nhiều người chú ý, đồng thời đặt ra câu hỏi về cách chúng ta kiểm thử và hoàn thiện trí tuệ nhân tạo.
Lo ngại rộng hơn là nghiên cứu gần đây cho thấy các tác nhân AI có thể hợp tác để lan truyền thông tin sai lệch một cách tự động, biến thành các công cụ tuyên truyền tự vận hành nếu không được kiểm soát. Những công việc như của Memvid phần nào nhằm tìm ra các lỗ hổng và cải thiện tính đáng tin cậy của hệ thống AI trước khi những rủi ro ấy trở nên nghiệm trọng hơn.
Nguồn: Digitaltrends
Bài viết liên quan