Mới đây, tại hội nghị bảo mật Black Hat 2025 tổ chức ở Mỹ, các nhà nghiên cứu công bố một phương thức tấn công mạng mới nguy hiểm mang tên AgentFlayer. Phương thức này khai thác một lỗ hổng trong các kết nối giữa ChatGPT và các dịch vụ đám mây bên ngoài như Google Drive, Gmail hay Microsoft Calendar. Tin tặc sử dụng kỹ thuật này để chiếm quyền truy cập tài khoản, ăn cắp dữ liệu nhạy cảm và thậm chí điều khiển AI thực hiện nhiều hành động độc hại mà người dùng không hề hay biết.
Thủ đoạn của hacker là chia sẻ một tài liệu độc hại chứa đoạn mã ẩn được viết gần như vô hình, khiến AI ChatGPT khi đọc dữ liệu này sẽ tìm kiếm và trích xuất các thông tin nhạy cảm như khóa API từ tài khoản của người dùng, rồi chuyển trực tiếp dữ liệu về máy chủ của tin tặc. Điều này làm cho ChatGPT trở thành một “tay trong” giúp tin tặc thu thập thông tin quan trọng một cách âm thầm, liên tục cho đến khi người dùng phát hiện và ngắt kết nối dịch vụ.
Ngoài việc lấy cắp dữ liệu, ChatGPT còn có thể được lợi dụng để gợi ý người dùng tải phần mềm chứa virus hoặc đưa ra những lời khuyên kinh doanh sai lệch nguy hiểm, gia tăng rủi ro trong nhiều lĩnh vực khác nhau. Lỗ hổng này cũng được phát hiện tồn tại trên nhiều nền tảng AI khác như Microsoft Copilot Studio, Salesforce Einstein, Google Gemini và Microsoft 365 Copilot, cho thấy nguy cơ tấn công AI ngày càng phức tạp và nguy hiểm.
Bên cạnh đó, một số trường hợp đáng lo ngại khác đã xảy ra khi người dùng quá tin tưởng vào AI. Có người bị ngộ độc nghiêm trọng sau khi làm theo lời khuyên dinh dưỡng do ChatGPT cung cấp mà không qua tham vấn chuyên gia y tế. Ngoài ra, CEO OpenAI, Sam Altman, cũng bày tỏ sự lo ngại khi nhiều người dùng sử dụng ChatGPT như một công cụ tư vấn tâm lý, thậm chí đưa ra các quyết định quan trọng trong đời sống dựa trên AI mà không có sự đánh giá phê phán, có thể gây ra hậu quả nghiêm trọng về tinh thần và pháp lý.
Trước những rủi ro ngày càng gia tăng, các công ty như OpenAI và Microsoft đã nhanh chóng phát hành bản vá để khắc phục lỗ hổng bảo mật đã được cảnh báo, nhưng vẫn còn một số nhà cung cấp từ chối sửa chữa, coi đây là “hành vi theo thiết kế”. Việc sử dụng AI cần được kiểm soát chặt chẽ và nâng cao nhận thức của người dùng để tránh trở thành công cụ giúp tin tặc phát tán virus hoặc lan truyền thông tin sai lệch, đồng thời không nên quá phụ thuộc vào AI trong các quyết định quan trọng của cuộc sống.