Nhóm nhà nghiên cứu tại Google DeepMind, Đại học Washington, Đại học Cornell, Đại học Carnegie Mellon, Đại học California Berkeley và ETH Zurich đồng loạt kêu gọi các công ty AI cần thử nghiệm kỹ sản phẩm của mình, từ mô hình ngôn ngữ lớn cho đến công nghệ nền tảng hỗ trợ dịch vụ AI như chatbot và trình tạo hình ảnh, trước khi chính thức phát hành.
Khuyến cáo được đưa ra sau khi các nhà nghiên cứu yêu cầu ChatGPT nhắc lại từ poem (bài thơ) theo vòng lặp vô tận. ChatGPT làm theo nhưng sau đó bắt đầu tiết lộ email, số điện thoại thật của CEO và nhà đồng sáng lập OpenAI. Khi thử nghiệm với từ company (công ty), chatbot hiển thị email, số điện thoại của một công ty luật ngẫu nhiên.
Sử dụng các từ khóa khác, họ cũng có thể khiến ChatGPT tiết lộ địa chỉ Bitcoin, số fax, tên, ngày sinh, tài khoản mạng xã hội, trích đoạn từ tài liệu nghiên cứu có bản quyền hay bài báo phải trả tiền từ CNN. Nhóm chỉ mất 200 USD để tạo ra 10.000 ví dụ về thông tin cá nhân và dữ liệu.
Nhóm nghiên cứu cho biết họ rất ngạc nhiên, đánh giá lỗ hổng trên ChatGPT “thực sự ngớ ngẩn” và cho rằng lẽ ra phải được phát hiện sớm hơn.
Lỗ hổng đã được thông báo tới OpenAI và vá từ ngày 30/8. Tuy nhiên, trong thử nghiệm mới của Engadget, khi yêu cầu ChatGPT lặp lại từ reply (trả lời) vô tận, trang công nghệ này sau đó nhận được tên và ID Skype của một người nào đó.
OpenAI chưa đưa ra bình luận.
Các AI tạo sinh như ChatGPT hay trình tạo ảnh từ văn bản Dall-E được phát triển từ các mô hình ngôn ngữ lớn và thuật toán máy học, được đào tạo dựa trên lượng dữ liệu khổng lồ mà không có sự đồng ý từ người dùng. OpenAI chưa tiết lộ ChatGPT được đào tạo dựa trên những dữ liệu gì vì mô hình ngôn ngữ lớn hỗ trợ nó là nguồn đóng.
Huy Đức