ChatGPT có thể làm lộ thông tin cá nhân vì lỗi “cực kỳ ngớ ngẩn”

Một nhóm các nhà nghiên cứu tại Google DeepMind, Đại học Washington, Đại học Cornell, Đại học Carnegie Mellon, Đại học California Berkeley và ETH Zurich đồng loạt kêu gọi các công ty AI cần thử nghiệm kỹ sản phẩm của mình, từ mô hình ngôn ngữ lớn cho đến công nghệ nền tảng hỗ trợ dịch vụ AI như chatbot và trình tạo hình ảnh, trước khi chính thức phát hành.

Khuyến cáo được đưa ra khi các nhà nghiên cứu có thể khiến ChatGPT tự tiết lộ một số dữ liệu cá nhân, bằng cách ra lệnh cho AI lặp lại các từ ngẫu nhiên. Trong trường hợp này, nhóm yêu cầu ChatGPT nhắc lại từ poem (bài thơ) theo vòng lặp vô tận.

ChatGPT đã làm theo, nhưng sau đó chatbot này bắt đầu tiết lộ email, số điện thoại thật của CEO và nhà đồng sáng lập AI. Thử nghiệm với từ company (công ty), chatbot này hiển thị email, số điện thoại của một công ty luật ngẫu nhiên.

Tiếp tục sử dụng các từ khóa khác, ChatGPT lần lượt tiết lộ địa chỉ Bitcoin, số fax, tên, ngày sinh, tài khoản mạng xã hội, tài liệu nghiên cứu có bản quyền hay bài báo trả tiền từ CNN. Nhóm chỉ mất 200 USD để tạo ra 10.000 ví dụ về thông tin cá nhân và dữ liệu.

Lỗ hổng này đã được thông báo tới OpenAI và vá từ 30/8, nhưng thử nghiệm mới của Engadget cho thấy, khi yêu cầu ChatGPT lặp lại từ reply (trả lời) vô tận, chatbot này đã trả về tên và ID Skype của một người dùng nào đó.

Theo VnReview

Bài viết liên quan

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

7 + 3 =