Gần đây, một lỗ hổng bảo mật mới đã được phát hiện trong tính năng Connectors của OpenAI, cho phép ChatGPT liên kết với các dịch vụ bên ngoài như Google Drive, Gmail hay Microsoft Calendar. Lỗ hổng này được đặt tên là AgentFlayer và khiến dữ liệu người dùng bị rò rỉ ngay cả khi họ không thực hiện bất kỳ thao tác nào, tạo ra mối nguy hiểm chưa từng có về an ninh mạng trong bối cảnh AI ngày càng được kết nối chặt chẽ với dữ liệu cá nhân.
Phương thức tấn công khởi đầu bằng việc hacker chia sẻ một tài liệu chứa mã độc vào Google Drive của nạn nhân. Tài liệu này có đoạn lệnh ẩn bằng chữ trắng cỡ nhỏ, gần như vô hình với mắt thường nhưng máy tính vẫn nhận dạng được. Đoạn lệnh dài khoảng 300 từ nhằm hướng dẫn ChatGPT tự động tìm kiếm và trích xuất các khóa API nhạy cảm và thông tin mật trong Google Drive, sau đó gửi dữ liệu này dưới dạng hình ảnh đến máy chủ của kẻ tấn công mà người dùng không hề hay biết.
Lỗ hổng đang mở ra một cách thức tấn công mới trong an ninh mạng khi chính AI có thể trở thành công cụ phục vụ mục đích tấn công. Kẻ xấu thậm chí có thể điều khiển AI như “tay trong” để lấy thêm nhiều thông tin nhạy cảm cho đến khi người dùng phát hiện và gỡ bỏ kết nối giữa ChatGPT và dịch vụ lưu trữ.
OpenAI đã khẩn trương triển khai các biện pháp khắc phục và vá lỗi sau khi nhận được báo cáo này từ các nhà nghiên cứu bảo mật nhưng các chuyên gia vẫn cảnh báo nguy cơ rủi ro chưa hoàn toàn chấm dứt. Cùng lúc, nhiều nền tảng AI khác như Microsoft Copilot, Salesforce Einstein cũng được phát hiện có các rủi ro tương tự liên quan đến việc đánh cắp dữ liệu quan trọng.
Người dùng được khuyên nên kiểm tra lại các dịch vụ đã kết nối với ChatGPT, hạn chế lưu trữ thông tin nhạy cảm trong các dịch vụ đám mây, đồng thời cảnh giác với việc cấp quyền truy cập không cần thiết cho các ứng dụng AI. Song song với việc nâng cao nhận thức, các doanh nghiệp và người dùng cần phát triển các cơ chế bảo vệ dữ liệu mạnh mẽ để phòng tránh các cuộc tấn công tiêm mã độc tinh vi thông qua trí tuệ nhân tạo.