Phi Vũ
New member
Google vừa mở rộng công cụ Search Live dùng AI ra hơn 200 quốc gia và vùng lãnh thổ, hỗ trợ 98 ngôn ngữ. Người dùng có thể chỉ camera vào vật thể và hỏi bằng giọng nói để nhận câu trả lời âm thanh kèm phụ đề trong thời gian thực.
Google đã triển khai công cụ tìm kiếm hội thoại Search Live trên toàn cầu, hiện có mặt ở hơn 200 quốc gia và vùng lãnh thổ và hỗ trợ 98 ngôn ngữ. Tính năng này lần đầu ra mắt tại Mỹ vào tháng 9/2025 và nay được mở rộng để nhiều người dùng tiếp cận hơn.
Search Live cho phép bạn hướng camera điện thoại hoặc máy tính bảng vào một vật thể rồi hỏi AI bằng giọng nói — ví dụ hỏi về model máy giặt hay cách sử dụng — và nhận câu trả lời bằng âm thanh cùng phụ đề. Công cụ tiếp tục lắng nghe để nhận các câu hỏi làm rõ hoặc truy vấn tiếp nhằm mô phỏng cuộc hội thoại tự nhiên.
Bạn có thể truy cập Search Live qua ứng dụng Google trên Android hoặc iOS bằng cách chạm nút “Live” dưới thanh tìm kiếm (nằm giữa các nút AI Mode và Nano Banana). Ngoài ra, tính năng này còn có thể dùng qua Google Lens và ứng dụng Gemini.
Google cho biết việc mở rộng khả năng toàn cầu được hỗ trợ bởi mô hình âm thanh và giọng nói mới mang tên Gemini 3.1 Flash Live, vốn được thiết kế “bản chất đa ngôn ngữ”. Hãng cũng nói mô hình này phản hồi nhanh hơn và hướng đến các cuộc hội thoại tự nhiên, trực quan hơn.
Search Live còn sử dụng kỹ thuật truy xuất thông tin gọi là query fan-out, tức mở rộng tìm kiếm để xem thêm các câu trả lời liên quan bên ngoài câu hỏi cụ thể, giúp tạo phản hồi toàn diện và tăng tính hội thoại.
Trong thử nghiệm thực tế, công cụ xác định tốt nhiều thông tin như model hay năm ra mắt. Tuy nhiên, nó vẫn mắc hạn chế: không nhận ra khi chủ sở hữu đã thay bánh xe nguyên bản bằng bộ bánh bên thứ ba, và đôi khi bỏ qua phụ kiện như đèn sau hay bình nước. Ở một lần khác, nó gọi sai Nothing Phone 4a Pro thành Nothing Phone 2a; kết quả trên Gemini Live cũng tương tự.
Nguyên nhân một phần là AI dựa vào nguồn thông tin có sẵn trực tuyến, nên các sản phẩm mới hoặc thay đổi tùy chỉnh khó có dữ liệu để máy học. Dù vậy, Search Live vẫn xử lý tốt nhiều truy vấn chung và hứa hẹn hữu ích cho người dùng trong nhiều tình huống hàng ngày.
Với khoảng 1,5 tỷ người đã dùng Google Lens tính đến tháng 6/2025 và khoảng 750 triệu người dùng Gemini Live, câu hỏi còn lại là mức độ phổ biến của Search Live sẽ như thế nào khi có mặt toàn cầu — và liệu đây có trở thành cách mặc định để tìm thông tin bằng hình ảnh và giọng nói hay không.
Nguồn: Techradar
Google đã triển khai công cụ tìm kiếm hội thoại Search Live trên toàn cầu, hiện có mặt ở hơn 200 quốc gia và vùng lãnh thổ và hỗ trợ 98 ngôn ngữ. Tính năng này lần đầu ra mắt tại Mỹ vào tháng 9/2025 và nay được mở rộng để nhiều người dùng tiếp cận hơn.
Search Live cho phép bạn hướng camera điện thoại hoặc máy tính bảng vào một vật thể rồi hỏi AI bằng giọng nói — ví dụ hỏi về model máy giặt hay cách sử dụng — và nhận câu trả lời bằng âm thanh cùng phụ đề. Công cụ tiếp tục lắng nghe để nhận các câu hỏi làm rõ hoặc truy vấn tiếp nhằm mô phỏng cuộc hội thoại tự nhiên.
Bạn có thể truy cập Search Live qua ứng dụng Google trên Android hoặc iOS bằng cách chạm nút “Live” dưới thanh tìm kiếm (nằm giữa các nút AI Mode và Nano Banana). Ngoài ra, tính năng này còn có thể dùng qua Google Lens và ứng dụng Gemini.
Google cho biết việc mở rộng khả năng toàn cầu được hỗ trợ bởi mô hình âm thanh và giọng nói mới mang tên Gemini 3.1 Flash Live, vốn được thiết kế “bản chất đa ngôn ngữ”. Hãng cũng nói mô hình này phản hồi nhanh hơn và hướng đến các cuộc hội thoại tự nhiên, trực quan hơn.
Search Live còn sử dụng kỹ thuật truy xuất thông tin gọi là query fan-out, tức mở rộng tìm kiếm để xem thêm các câu trả lời liên quan bên ngoài câu hỏi cụ thể, giúp tạo phản hồi toàn diện và tăng tính hội thoại.
Trong thử nghiệm thực tế, công cụ xác định tốt nhiều thông tin như model hay năm ra mắt. Tuy nhiên, nó vẫn mắc hạn chế: không nhận ra khi chủ sở hữu đã thay bánh xe nguyên bản bằng bộ bánh bên thứ ba, và đôi khi bỏ qua phụ kiện như đèn sau hay bình nước. Ở một lần khác, nó gọi sai Nothing Phone 4a Pro thành Nothing Phone 2a; kết quả trên Gemini Live cũng tương tự.
Nguyên nhân một phần là AI dựa vào nguồn thông tin có sẵn trực tuyến, nên các sản phẩm mới hoặc thay đổi tùy chỉnh khó có dữ liệu để máy học. Dù vậy, Search Live vẫn xử lý tốt nhiều truy vấn chung và hứa hẹn hữu ích cho người dùng trong nhiều tình huống hàng ngày.
Với khoảng 1,5 tỷ người đã dùng Google Lens tính đến tháng 6/2025 và khoảng 750 triệu người dùng Gemini Live, câu hỏi còn lại là mức độ phổ biến của Search Live sẽ như thế nào khi có mặt toàn cầu — và liệu đây có trở thành cách mặc định để tìm thông tin bằng hình ảnh và giọng nói hay không.
Nguồn: Techradar
Bài viết liên quan