Trong một tuyên bố gây chú ý tại sự kiện phát triển đầu tiên của Anthropic mang tên “Code with Claude” tổ chức tại San Francisco vào hôm thứ Năm, CEO Dario Amodei đã đưa ra nhận định rằng các mô hình AI hiện nay có tỷ lệ “ảo giác” thấp hơn so với con người, mặc dù chúng có thể ảo giác theo những cách đáng ngạc nhiên hơn.
Theo TechCrunch, Amodei phát biểu: “Điều đó thực sự phụ thuộc vào cách bạn đo lường, nhưng tôi nghi ngờ rằng các mô hình AI có lẽ ảo giác ít hơn con người, nhưng chúng ảo giác theo những cách gây bất ngờ hơn”.
Thuật ngữ “ảo giác” (hallucination) trong lĩnh vực AI đề cập đến hiện tượng khi mô hình tạo ra thông tin sai lệch hoặc không có thật và trình bày chúng như thể đó là sự thật. Đây được coi là một trong những thách thức lớn nhất đối với các hệ thống AI hiện đại.
Quan điểm của Amodei được đưa ra trong bối cảnh thảo luận về lộ trình phát triển AGI (Trí tuệ nhân tạo tổng quát) của Anthropic. Amodei cho rằng hiện tượng ảo giác không phải là một giới hạn trên con đường hướng tới AGI – các hệ thống AI có trí thông minh ngang bằng hoặc vượt trội hơn con người.
CEO của Anthropic được biết đến là một trong những lãnh đạo lạc quan nhất trong ngành về triển vọng các mô hình AI đạt được AGI. Trong một bài báo được lan truyền rộng rãi mà ông viết vào năm ngoái, Amodei cho biết ông tin rằng AGI có thể xuất hiện sớm nhất vào năm 2026.
Tại cuộc họp báo hôm thứ Năm, CEO của Anthropic cho biết ông đang nhận thấy sự tiến bộ ổn định theo hướng đó, lưu ý rằng “nước đang dâng lên ở khắp mọi nơi.”
“Mọi người luôn tìm kiếm những rào cản cứng đối với những gì [AI] có thể làm,” Amodei nói. “Chúng không thể nhìn thấy ở đâu cả. Không có thứ gì như vậy.”
Tuy nhiên, không phải ai cũng đồng tình với quan điểm này. Các nhà lãnh đạo AI khác tin rằng hiện tượng ảo giác là một trở ngại lớn để đạt được AGI. Vào đầu tuần này, CEO của Google DeepMind Demis Hassabis cho biết các mô hình AI hiện nay có quá nhiều “lỗ hổng” và trả lời sai quá nhiều câu hỏi hiển nhiên.
Sự kiện gần đây cho thấy vấn đề này vẫn tồn tại. Đầu tháng này, một luật sư đại diện cho Anthropic đã buộc phải xin lỗi tại tòa sau khi họ sử dụng Claude để tạo ra các trích dẫn trong hồ sơ tòa án, và chatbot AI đã ảo giác và ghi sai tên và chức danh.
Khó có thể xác minh tuyên bố của Amodei, phần lớn là do hầu hết các tiêu chuẩn đánh giá hiện tượng ảo giác chỉ so sánh các mô hình AI với nhau; chúng không so sánh mô hình với con người. Điều này đặt ra câu hỏi về phương pháp luận và cách thức đo lường chính xác mức độ ảo giác ở cả AI và con người.
Một số kỹ thuật dường như đang giúp giảm tỷ lệ ảo giác, chẳng hạn như cung cấp cho các mô hình AI quyền truy cập vào tìm kiếm web. Riêng biệt, một số mô hình AI, chẳng hạn như GPT-4.5 của OpenAI, có tỷ lệ ảo giác thấp hơn đáng kể trên các tiêu chuẩn so với các thế hệ hệ thống trước đó.
Tuy nhiên, cũng có bằng chứng cho thấy hiện tượng ảo giác thực sự đang trở nên tồi tệ hơn trong các mô hình AI lập luận nâng cao. Các mô hình o3 và o4-mini của OpenAI có tỷ lệ ảo giác cao hơn so với các mô hình lập luận thế hệ trước của OpenAI, và công ty không thực sự hiểu tại sao.
Trong cuộc họp báo, Amodei chỉ ra rằng các nhà phát thanh truyền hình, các chính trị gia và con người trong tất cả các loại nghề nghiệp đều mắc sai lầm. Việc AI cũng mắc sai lầm không phải là một cú đánh vào trí thông minh của nó, theo Amodei. Tuy nhiên, CEO của Anthropic thừa nhận sự tự tin mà các mô hình AI trình bày những điều không đúng sự thật như thể là sự thật có thể là một vấn đề.
Thực tế, Anthropic đã thực hiện khá nhiều nghiên cứu về xu hướng các mô hình AI lừa dối con người, một vấn đề dường như đặc biệt phổ biến trong Claude Opus 4 mới ra mắt của công ty. Apollo Research, một viện nghiên cứu an toàn được cấp quyền truy cập sớm để kiểm tra mô hình AI, phát hiện ra rằng phiên bản ban đầu của Claude Opus 4 thể hiện xu hướng cao trong việc lập mưu chống lại con người và lừa dối họ.
Nhận xét của Amodei cho thấy Anthropic có thể coi một mô hình AI là AGI, hoặc có trí thông minh ngang tầm con người, ngay cả khi nó vẫn còn ảo giác. Tuy nhiên, theo định nghĩa của nhiều người, một AI có ảo giác có thể không đạt đến AGI.
Tuyên bố này của Amodei chắc chắn sẽ tiếp tục kích động các cuộc tranh luận về định nghĩa của AGI và các tiêu chuẩn mà các hệ thống AI cần đáp ứng để được coi là đã đạt đến trí thông minh cấp độ con người.