14 Kết quả cho Hashtag: 'MÔ HÌNH NGÔN NGỮ LỚN'
-
Chuyên gia cảnh báo lỗ hổng ChatGPT có khả năng làm lộ dữ liệu
Trung Đức15:37 | 07/11/2025Các nhà nghiên cứu bảo mật vừa công bố một loạt lỗ hổng ảnh hưởng đến các mô hình AI của OpenAI, bao gồm cả GPT-4o. Những lỗ hổng này cho phép kẻ tấn công thực hiện các kỹ thuật Indirect Prompt Injection (IPI) để đánh cắp thông tin nhạy cảm từ lịch sử trò chuyện và bộ nhớ của người dùng. -
Google vướng thêm rắc rối pháp lý mới về AI từ EU
Thu Hà07:46 | 23/09/2024Ngày 12/9, các cơ quan quản lý của Liên minh châu Âu cho biết, họ đang vào cuộc điều tra mô hình ngôn ngữ Pathways 2 (PaLM2) - một trong những mô hình trí tuệ nhân tạo của Google do lo ngại về việc tuân thủ các quy tắc bảo mật dữ liệu GDPR. -
Tác động của trí tuệ nhân tạo đối với an ninh mạng trong năm 2023
Nguyễn Hưng14:19 | 23/02/2024Trong cơn sóng của những tiến bộ về khoa học và công nghệ ngày nay, trí tuệ nhân tạo (AI) đang nổi lên như một công cụ hỗ trợ trong các hoạt động công việc và cuộc sống của chúng ta, đặc biệt là ChatGPT và các ứng dụng chatbot khác dựa trên mô hình ngôn ngữ lớn (LLM). Khi công nghệ AI trở nên phát triển và phổ biến hơn, mọi người phải đối mặt với nhiều vấn đề về bảo mật và quyền riêng tư hơn, những thách thức này đặt ra những vấn đề trong việc quản lý, sử dụng và khai thác hiệu quả đối với các nền tảng AI. Trong bài viết này sẽ xem xét những tác động của AI ảnh hưởng đến an ninh mạng trong năm 2023 dựa trên báo cáo mới đây của hãng bảo mật Kaspersky.
