Công ty trí tuệ nhân tạo xAI của Elon Musk đã không thực hiện đúng cam kết công bố bản chính thức của khung an toàn AI, theo thông tin từ tổ chức giám sát The Midas Project. Sự việc này gây ra nhiều câu hỏi về cam kết thực sự của xAI đối với các tiêu chuẩn an toàn trong phát triển trí tuệ nhân tạo.
Lời hứa không được thực hiện
Vào tháng 2/2025, tại Hội nghị AI Seoul, xAI đã công bố bản dự thảo về khung an toàn của công ty, trong đó nêu rõ các ưu tiên và triết lý về an toàn AI, bao gồm các quy trình đánh giá hiệu suất và cân nhắc triển khai mô hình. Trong bản dự thảo này, xAI đã cam kết sẽ phát hành phiên bản chính thức của chính sách an toàn “trong vòng ba tháng” – tức là trước ngày 10/5/2025.
Tuy nhiên, thời hạn này đã trôi qua mà không có bất kỳ thông báo nào từ các kênh chính thức của xAI. Điều này trở nên đáng chú ý hơn khi Elon Musk thường xuyên cảnh báo về những mối nguy hiểm tiềm ẩn của AI không được kiểm soát, nhưng công ty AI của chính ông lại không thực hiện cam kết về an toàn của mình.
Lịch sử thiếu cam kết về an toàn
Theo một nghiên cứu gần đây của SaferAI, một tổ chức phi lợi nhuận nhằm cải thiện trách nhiệm giải trình của các phòng thí nghiệm AI, xAI xếp hạng kém trong số các công ty cùng ngành do thực hành quản lý rủi ro “rất yếu” của họ.
Chatbot Grok của xAI cũng đã gây tranh cãi khi một báo cáo cho thấy nó có thể “cởi đồ” trong ảnh phụ nữ khi được yêu cầu. Grok cũng thường xuyên sử dụng ngôn ngữ thô tục và ít bị kiểm soát hơn so với các chatbot khác như Gemini và ChatGPT.
Vấn đề rộng hơn trong ngành
Sự thất bại của xAI trong việc thực hiện cam kết về an toàn phản ánh một xu hướng đáng lo ngại hơn trong ngành công nghiệp AI. Các đối thủ cạnh tranh của xAI như Google và OpenAI cũng đã đẩy nhanh việc kiểm tra an toàn và chậm trễ trong việc công bố các báo cáo an toàn mô hình.
Nhiều chuyên gia bày tỏ lo ngại rằng việc dường như không ưu tiên cho các nỗ lực an toàn đang diễn ra vào thời điểm AI ngày càng mạnh mẽ hơn — và do đó có thể nguy hiểm hơn bao giờ hết.
Cam kết quốc tế
Việc công bố khung an toàn là một phần của Cam kết An toàn AI Tiên tiến (Frontier AI Safety Commitments) được ký kết tại Hội nghị AI Seoul. Theo cam kết này, 16 công ty AI hàng đầu thế giới, bao gồm xAI, đã đồng ý phát triển và triển khai các mô hình AI tiên tiến của họ một cách có trách nhiệm.
Các công ty đã cam kết sẽ công bố khung an toàn về cách họ sẽ đo lường rủi ro của các mô hình tiên tiến mà họ phát triển. Các khung này sẽ kiểm tra khả năng sử dụng sai mục đích của AI, có tính đến khả năng, biện pháp bảo vệ và bối cảnh triển khai của nó.
Phản ứng và tương lai
The Midas Project, tổ chức giám sát phi lợi nhuận làm việc để đảm bảo công nghệ AI mang lại lợi ích cho tất cả mọi người, không chỉ các công ty phát triển nó, đã nêu bật vấn đề này trong một bài đăng blog vào thứ Ba. Họ chỉ ra rằng bản dự thảo của xAI chỉ áp dụng cho “các mô hình AI trong tương lai không xác định” và “không được phát triển hiện tại”, đồng thời không nêu rõ cách xAI sẽ xác định hoặc giảm thiểu các mối nguy hiểm.
Trong bối cảnh xAI đang huy động khoản đầu tư khổng lồ 20 tỷ USD và việc Elon Musk đang đảm nhận vai trò chính trong chính quyền Trump với Bộ Hiệu quả Chính phủ (DOGE), việc không thực hiện các cam kết an toàn AI đặt ra những câu hỏi nghiêm trọng về ưu tiên của công ty và trách nhiệm của nó đối với xã hội.
Hiện tại, xAI vẫn chưa đưa ra bất kỳ phản hồi chính thức nào về việc bỏ lỡ thời hạn này.