Anthropic: Chỉ lượng tài liệu nhỏ cũng đủ 'đầu độc' mô hình AI khổng lồ

Admin

Nghiên cứu mới của công ty phát triển chatbot Claude cho thấy ngay cả mô hình ngôn ngữ lớn hàng chục tỉ tham số cũng có thể bị 'đầu độc' chỉ với lượng dữ liệu cực nhỏ.

Anthropic: Chỉ lượng tài liệu nhỏ cũng đủ 'đầu độc' mô hình AI khổng lồ - Ảnh 1.

Anthropic cảnh báo việc cài dữ liệu độc hại để làm sai lệch phản hồi của AI dễ dàng hơn nhiều so với tưởng tượng - Ảnh: FREEPIK

Công ty trí tuệ nhân tạo Anthropic, đơn vị phát triển chatbot Claude, vừa công bố nghiên cứu cho thấy việc "đầu độc" mô hình ngôn ngữ lớn (LLM), tức cài dữ liệu độc hại để làm sai lệch phản hồi của Lừa đảo việc làm ở Mỹ tăng hơn 1.000%, AI giăng 'bẫy tuyển dụng' tinh vi chưa từng có

Tuy nhiên Anthropic khẳng định cả mô hình 13 tỉ tham số - được huấn luyện trên lượng dữ liệu gấp hơn 20 lần - và mô hình 600 triệu tham số đều có thể bị xâm nhập chỉ với cùng số lượng nhỏ tài liệu bị "đầu độc".

"Phát hiện này thách thức giả định rằng kẻ tấn công phải kiểm soát một tỉ lệ dữ liệu huấn luyện nhất định. Thực tế họ có thể chỉ cần một lượng cố định rất nhỏ", Anthropic nhấn mạnh. 

Công ty cảnh báo những lỗ hổng này có thể gây rủi ro nghiêm trọng cho an ninh của các hệ thống AI và đe dọa ứng dụng công nghệ trong các lĩnh vực nhạy cảm.

Anthropic: Chỉ lượng tài liệu nhỏ cũng đủ 'đầu độc' mô hình AI khổng lồ - Ảnh 2.Nguy cơ chatbot AI bị lợi dụng phát tán thông tin sức khỏe sai lệch

Các chatbot AI phổ biến có thể được lập trình để trả lời sai lệch các câu hỏi về sức khỏe với giọng điệu thuyết phục, thậm chí kèm theo trích dẫn giả từ những tạp chí y khoa uy tín.

Đọc tiếp Về trang Chủ đề