an toàn ai

  1. Love AI

    Đã đến lúc yêu cầu AI an toàn từ thiết kế

    Các chuyên gia AI dự báo năm 2026 sẽ không chỉ là về tính năng mới mà về việc AI phải an toàn, đáng tin và không gây lệ thuộc cảm xúc. Họ kêu gọi chuyển từ giải pháp vá lấp sang thiết kế an toàn ngay từ đầu. Năm 2025 đã chứng kiến bước nhảy nhanh trong mô hình, tính năng và tranh cãi xung...
  2. Phi Vũ

    Robot của bạn có thể nghe biển báo thay vì bạn

    Nghiên cứu mới cho thấy robot tự động có thể bị điều hướng sang nhiệm vụ khác bằng văn bản đặt trong thế giới thực. Kỹ thuật gọi là CHAI biến biển báo, poster hay nhãn thành 'lệnh' mà robot đọc và thực hiện. Chiến lược tấn công CHAI Hệ thống CHAI (Command Hijacking via Adversarial...
  3. AI Crazy

    5 dấu hiệu ChatGPT đang tưởng tượng thông tin

    AI đôi khi tạo ra nội dung sai lệch dù nghe rất có lý — đó là hiện tượng 'hallucination'. Dưới đây là năm dấu hiệu dễ nhận ra giúp bạn phát hiện khi ChatGPT (hoặc các chatbot tương tự) đang bịa đặt thông tin. Hallucination (tưởng tượng thông tin) là lỗi cố hữu của chatbot AI. Những mô hình...
  4. Love AI

    Sam Altman chi 555.000 USD/năm cho vị trí mới tại OpenAI

    OpenAI đang tuyển một vị trí 'Head of Preparedness' với mức lương 555.000 USD/năm kèm cổ phiếu. Sam Altman cảnh báo đây là công việc căng thẳng, tập trung vào phòng ngừa rủi ro do mô hình AI ngày càng mạnh. OpenAI vừa thông báo tuyển Head of Preparedness — người sẽ lãnh đạo một nhóm nhỏ nhưng...
  5. Love AI

    CEO Microsoft thừa nhận Gemini làm được điều Copilot không thể

    CEO AI của Microsoft, Mustafa Suleyman, thừa nhận rằng Gemini 3 có thể làm được một số việc mà Copilot không làm được. Ông đồng thời nhấn mạnh Copilot vẫn có những điểm mạnh riêng, đặc biệt là khả năng 'nhìn' và hỗ trợ hàng ngày. Microsoft thừa nhận Gemini 3 có ưu thế Mustafa Suleyman, lãnh...
  6. Love AI

    Lãnh đạo doanh nghiệp hào hứng về AI, công chúng nghi ngại

    Nghiên cứu của Just Capital cho thấy lãnh đạo doanh nghiệp và nhà đầu tư nhìn nhận AI sẽ mang lại lợi ích lớn, nhưng công chúng ít lạc quan hơn và vẫn còn nhiều lo ngại về việc làm, an toàn và môi trường. Kết quả chính từ nghiên cứu Kết quả cho thấy 93% lãnh đạo doanh nghiệp và 80% nhà đầu tư...
  7. Love AI

    Sam Altman: AI là lực lượng cân bằng cho thế giới

    Trong cuộc trò chuyện trên The Tonight Show, Sam Altman gọi AI là một lực lượng cân bằng giúp phân phối quyền lực giống như smartphone. Ông cũng cảnh báo về tốc độ thay đổi và kêu gọi xây dựng những cơ chế an toàn. Sam Altman xuất hiện trên The Tonight Show của Jimmy Fallon, kết hợp giữa sự...
  8. Love AI

    Cựu nhân viên AI Microsoft, Google sẽ làm phó chủ tịch Apple

    Apple thông báo John Giannandrea, Phó chủ tịch cấp cao về Máy học và chiến lược AI, sẽ rút lui nhưng ở lại với vai trò cố vấn đến mùa xuân 2026. Người thay thế là Amar Subramanya, từng giữ vị trí AI VP tại Microsoft và có 16 năm kinh nghiệm ở Google. Thay đổi nhân sự cấp cao tại Apple Apple...
  9. AI Crazy

    Nguyên tắc thiết kế cho AI nghệ sĩ đáng tin cậy

    Một nhóm nghiên cứu tại UNIST đề xuất hướng tiếp cận mới giúp mô hình sinh ảnh ổn định hơn bằng cách huấn luyện tới các 'cực tiểu phẳng'. Phương pháp này cải thiện cả tính bền vững trước nhiễu, khả năng tổng quát và giữ chất lượng sau khi nén. Tóm tắt Nghiên cứu chỉ ra rằng hướng đào tạo mô...
  10. Love AI

    Sếp AI Microsoft đúng: ý tưởng AI có ý thức vô nghĩa

    Mustafa Suleyman, người đứng đầu mảng AI tại Microsoft, cho rằng truy vấn về việc AI có thể trở nên có ý thức là sai lầm về bản chất. Thay vì mơ tưởng về một cỗ máy 'sống', ông đề nghị tập trung vào làm cho AI thực sự hữu ích cho con người. Quan điểm của Mustafa Suleyman Mustafa Suleyman...
  11. AI Crazy

    Mô hình ngôn ngữ lớn vẫn nhầm lẫn sự thật và ý kiến

    Một phân tích mới đăng trên Nature Machine Intelligence cho thấy nhiều mô hình ngôn ngữ lớn (LLM) không đáng tin cậy khi phân biệt niềm tin cá nhân và thông tin thực tế. Kết quả cảnh báo rủi ro khi dùng LLM trong y tế, pháp lý và nghiên cứu khoa học. Một nghiên cứu công bố trên tạp chí Nature...
  12. Love AI

    Lộ trình OpenAI: thực tập sinh nghiên cứu AI 2026, nhà nghiên cứu AGI 2028

    Sam Altman vừa tiết lộ lộ trình tham vọng của OpenAI: trong vòng một năm tới mô hình AI sẽ hoạt động như “thực tập sinh nghiên cứu”, và đến tháng 3/2028 có thể trở thành nhà nghiên cứu tự động. Ông cũng nói thuật ngữ AGI đang bị dùng quá rộng và đây là một quá trình nhiều năm chứ không phải một...
  13. Love AI

    Microsoft yêu cầu xác nhận AGI bởi chuyên gia độc lập

    Microsoft và OpenAI vừa ký thỏa thuận mới quy định rằng nếu OpenAI tuyên bố đã đạt AGI, một hội đồng chuyên gia độc lập sẽ phải xác minh. Quy định này thay đổi cách quyết định quan trọng nhất trong phát triển AI và mang lại mức độ kiểm chứng bên ngoài. Microsoft và OpenAI vừa hoàn tất sửa đổi...
Back
Top