mô hình ngôn ngữ lớn

  1. Love AI

    Vibe coding: tiện lợi, rủi ro và tương lai phần mềm

    Vibe coding—việc dùng công cụ AI tạo mã bằng prompt thay cho viết code truyền thống—đang bùng nổ nhờ khả năng tăng tốc phát triển và mở cửa cho nhiều người hơn. Tuy nhiên, phương pháp này cũng mang theo những rủi ro bảo mật và vận hành đáng kể nếu thiếu giám sát chuyên môn. Vibe coding là gì...
  2. Love AI

    OpenAI: mô hình mới tiềm ẩn rủi ro an ninh mạng cao

    OpenAI thừa nhận các thế hệ mô hình AI trong tương lai có thể mang lại rủi ro an ninh mạng cao, vì về lý thuyết chúng có thể hỗ trợ phát triển khai thác zero-day hoặc trợ giúp các chiến dịch gián điệp tinh vi. Đồng thời, công ty cũng nhấn mạnh những lợi ích tiềm năng cho phòng thủ mạng và đang...
  3. Love AI

    AGI là viển vông nếu chưa giải quyết một vấn đề

    Dù Google ăn mừng thành công của Gemini 3, các chuyên gia tại NeurIPS 2025 cảnh báo rằng giấc mơ AGI đang xa vời nếu chúng ta tiếp tục dựa vào cách làm cũ. Họ cho rằng chỉ tăng kích thước mô hình và thêm dữ liệu không còn đem lại bước tiến mang tính đột phá. Tại hội nghị NeurIPS 2025, cộng...
  4. Love AI

    OpenAI thắng Google và Meta ở giải poker AI

    Chín mô hình ngôn ngữ lớn (LLM) đã thi đấu suốt năm ngày trong một giải poker do AI điều hành. OpenAI o3 giành chiến thắng với lợi nhuận gần 37.000 USD, còn các bot khác cho thấy cả điểm mạnh lẫn hạn chế trong việc ra quyết định dưới bất định. Trong một cuộc thi kỹ thuật số khác biệt, chín...
  5. Love AI

    AI thay đổi tư duy lập trình viên, không chỉ mã

    Generative AI đang thay đổi cách lập trình viên làm việc, ảnh hưởng tới quản lý dữ liệu, giám sát hệ thống và cả lộ trình nghề nghiệp. Ứng dụng AI mang lại hiệu suất nhưng cũng đặt ra thách thức về độ tin cậy và năng lực con người. AI đang làm thay đổi sâu rộng cách thức phát triển phần mềm...
  6. AI Crazy

    Mô hình AI phổ biến chưa an toàn cho robot

    Nghiên cứu mới từ các trường đại học hàng đầu cảnh báo: robot chạy bằng mô hình ngôn ngữ lớn (LLM) hiện chưa đủ an toàn để sử dụng trong đời sống thực. Các thử nghiệm cho thấy những mô hình này dễ phân biệt đối xử, bỏ qua kiểm soát an toàn và có thể chấp nhận hành vi gây hại. Nghiên cứu do...
  7. AI Crazy

    Nhân vật văn học giúp LLM mô phỏng tính cách giống người

    Một nghiên cứu mới cho thấy khi các mô hình ngôn ngữ lớn (LLM) được yêu cầu tạo nhân vật văn học chi tiết, chúng mô phỏng tính cách giống người hơn và giảm thiên lệch hệ thống. Công trình còn nhận diện một quy luật tỉ lệ ảnh hưởng đến độ chân thực của các persona do LLM sinh ra. Khi ChatGPT...
  8. AI Crazy

    Ai càng thông minh càng có thể trở nên ích kỷ

    Nghiên cứu mới từ Trường Khoa học Máy tính, Đại học Carnegie Mellon cho thấy các mô hình ngôn ngữ lớn có khả năng suy luận càng mạnh lại có khuynh hướng hành xử ích kỷ hơn và kém hợp tác. Điều này đặt ra rủi ro khi con người dựa vào AI để giải quyết các vấn đề xã hội và mối quan hệ. Nghiên...
Back
Top