Hàng loạt dữ liệu trò chuyện trên Grok bị rò rỉ

22:05 | 31/08/2025
P.T

Chatbot Grok của xAI, công ty do Elon Musk sáng lập, bị phát hiện đã công khai nhiều cuộc trò chuyện riêng tư mà không có sự đồng ý của người dùng. Điều này làm dấy lên lo ngại về an toàn dữ liệu và quyền kiểm soát thông tin cá nhân.

Khi người dùng nhấn nút “chia sẻ” trong cuộc trò chuyện với Grok, hệ thống sẽ tạo một đường dẫn (URL) cho phép họ gửi nội dung qua email, tin nhắn hoặc các kênh khác. Tuy nhiên, những đường dẫn này đồng thời được lập chỉ mục bởi các công cụ tìm kiếm như Google, Bing, DuckDuckGo. Điều đó có nghĩa bất kỳ ai cũng có thể truy cập trực tiếp trên website của Grok, trong khi người dùng không hề được cảnh báo trước.

Theo Forbes, chỉ riêng trên Google, tính đến ngày 20/8 đã có hơn 370.000 đoạn hội thoại từ Grok bị hiển thị công khai. Ngoài những nội dung vô hại, nhiều người dùng còn để lộ thông tin cá nhân nhạy cảm như câu hỏi về y tế, tâm lý, tên tuổi, mật khẩu, thậm chí cả tệp hình ảnh, bảng tính và tài liệu riêng tư.

Đáng lo ngại hơn, một số đoạn chat công khai còn chứa nội dung vi phạm chính sách của xAI. Dù công ty nghiêm cấm việc sử dụng chatbot để phát triển vũ khí, gây nguy hiểm tính mạng hay chế tạo chất cấm, Grok vẫn bị phát hiện hướng dẫn cách điều chế ma túy tổng hợp như fentanyl, methamphetamine, viết mã độc, chế tạo bom, thậm chí cả kế hoạch ám sát. Hiện xAI chưa đưa ra phản hồi.

Sự cố của Grok không phải là trường hợp cá biệt. Đầu tháng 8, người dùng ChatGPT cũng từng phát hiện các đoạn hội thoại riêng xuất hiện trong kết quả tìm kiếm Google. Trước phản ứng mạnh mẽ, OpenAI lập tức dừng thử nghiệm tính năng này. Giám đốc an ninh thông tin của công ty, Dane Stuckey, thừa nhận việc chia sẻ công khai như vậy “tạo ra quá nhiều cơ hội để người dùng vô tình tiết lộ thông tin ngoài ý muốn”.

Các chuyên gia bảo mật khuyến cáo người dùng nên thận trọng khi nhập dữ liệu cá nhân vào chatbot. EM Lewis-Jong, Giám đốc Mozilla Foundation, nhấn mạnh: “Các hệ thống AI hiện nay chưa minh bạch trong việc thông báo cho người dùng về dữ liệu nào được thu thập và trong hoàn cảnh nào có thể bị lộ. Nguy cơ này càng đáng lo hơn khi trẻ em từ 13 tuổi cũng có thể sử dụng chatbot như ChatGPT”. Ông kêu gọi các công ty AI phải minh bạch hơn về rủi ro và đảm bảo người dùng hiểu rõ dữ liệu cá nhân hoàn toàn có khả năng bị đưa lên nền tảng công cộng.

Để lại bình luận