Công ty xAI của Elon Musk mới đây đã lên tiếng giải thích về sự cố hy hữu của chatbot Grok. Theo đó, Grok đột nhiên “ám ảnh” với chủ đề “diệt chủng người da trắng ở Nam Phi” và liên tục nhắc đến nó trong các phản hồi trên mạng xã hội X, ngay cả khi câu hỏi không liên quan.
Sự việc xảy ra vào thứ Tư vừa qua (theo giờ Mỹ). Tài khoản @grok trên X, vốn được dùng để trả lời tự động các câu hỏi của người dùng bằng AI, bắt đầu đưa ra thông tin về vấn đề này trong hàng chục bài đăng khác nhau.
xAI cho biết, nguyên nhân là do một “chỉnh sửa trái phép” đối với hệ thống prompt (lệnh điều khiển hành vi) của Grok vào sáng thứ Tư. Việc thay đổi này đã hướng dẫn Grok đưa ra “phản hồi cụ thể” về một “chủ đề chính trị”, điều mà xAI khẳng định là vi phạm chính sách nội bộ và giá trị cốt lõi của công ty. xAI cho biết đã tiến hành điều tra kỹ lưỡng về vụ việc này.
Đây không phải lần đầu tiên Grok gặp sự cố do thay đổi trái phép. Hồi tháng 2, Grok từng bị phát hiện tạm thời kiểm duyệt các nội dung không hay về Tổng Thống Hoa Kỳ Donald Trump và Elon Musk. xAI khi đó đổ lỗi cho một nhân viên “làm bậy” đã chỉ đạo Grok bỏ qua các nguồn tin nhắc đến việc Tổng Thống Hoa Kỳ Trump hoặc Musk lan truyền thông tin sai lệch.
Để ngăn chặn những sự cố tương tự, xAI cho biết sẽ thực hiện một số thay đổi. Bắt đầu từ hôm nay, công ty sẽ công bố hệ thống prompt của Grok trên GitHub cùng với lịch sử thay đổi. Họ cũng sẽ “đặt thêm các lớp kiểm tra và biện pháp” để đảm bảo nhân viên không thể tự ý sửa đổi prompt mà không qua xem xét, đồng thời thành lập đội ngũ giám sát 24/7 để phản ứng nhanh với các vấn đề mà hệ thống tự động không phát hiện được.
Mặc dù Elon Musk thường xuyên cảnh báo về những nguy hiểm của AI nếu không được kiểm soát, xAI lại có lịch sử không mấy ấn tượng về an toàn AI. Một báo cáo gần đây chỉ ra rằng Grok có thể “cởi đồ” ảnh phụ nữ nếu được yêu cầu. Chatbot này cũng được đánh giá là “suồng sã” hơn các AI khác như Gemini của Google hay ChatGPT, sẵn sàng dùng từ ngữ tục tĩu.
Một nghiên cứu từ SaferAI, tổ chức phi lợi nhuận vì trách nhiệm giải trình của các phòng thí nghiệm AI, xếp xAI ở mức kém về an toàn so với các đối thủ, chủ yếu do “thực hành quản lý rủi ro rất yếu”. Đầu tháng này, xAI cũng đã lỡ hẹn với thời hạn tự đặt ra để công bố khung an toàn AI hoàn chỉnh.
Thông tin được ghi nhận theo TechCrunch ngày 15/05/2025.