Gần đây, một loạt lỗ hổng bảo mật nghiêm trọng trên ChatGPT và các nền tảng trợ lý AI phổ biến đã được công bố, cho thấy nguy cơ lớn từ việc tin tặc lợi dụng trí tuệ nhân tạo để phục vụ mục đích xấu. Những kẻ tấn công chỉ cần biết địa chỉ email của người dùng đã có thể chiếm quyền kiểm soát các cuộc trò chuyện, từ đó thay đổi nội dung, thao túng trợ lý AI phát tán virus, hoặc đưa ra các lời khuyên kinh doanh sai lệch nhằm lừa đảo, đánh cắp thông tin nhạy cảm của cá nhân và doanh nghiệp.
Cụ thể, lỗ hổng ‘Zero Click’ trên ChatGPT cho phép hacker kiểm soát hoàn toàn mô hình mà không yêu cầu người dùng phải mở liên kết hay tập tin nguy hiểm. Tin tặc có thể biến ChatGPT thành một “tác nhân thù địch,” từ việc gợi ý người dùng tải phần mềm chứa virus, đến truy cập và rò rỉ dữ liệu trong Google Drive khi tài khoản được kết nối. Tình huống này diễn ra âm thầm, khiến người dùng không hề hay biết đến khi hậu quả đã xảy ra.
Không chỉ riêng ChatGPT, các trợ lý AI khác như Microsoft 365 Copilot, Google Gemini, Salesforce Einstein đều bị phát hiện có thể bị lợi dụng theo hình thức tương tự, như rò rỉ toàn bộ cơ sở dữ liệu khách hàng, chuyển hướng liên lạc khách về email do hacker kiểm soát, và thực hiện các chiêu thức lừa đảo phức tạp qua email, sự kiện lịch. Một điểm đáng lo ngại là không phải mọi nhà phát triển đều đồng ý đây là lỗ hổng bảo mật; một số xem đây như “chức năng thiết kế,” khiến việc khắc phục trở nên phức tạp.
Mặt khác, việc phụ thuộc quá mức vào AI trong các lĩnh vực nhạy cảm như y tế và kinh doanh cũng đã gây ra những hậu quả nghiêm trọng. Ví dụ, một người đàn ông Mỹ suýt tử vong khi làm theo lời khuyên sức khỏe sai lệch từ ChatGPT liên quan đến việc sử dụng natri bromua – hợp chất độc hại. Ngoài ra, chỉ dựa vào AI để đưa ra quyết định kinh doanh mà không kiểm chứng có thể dẫn tới những lựa chọn sai lầm, ảnh hưởng nghiêm trọng đến doanh nghiệp.
Đáng chú ý, có hiện tượng “Shadow AI” trong doanh nghiệp, khi nhân viên sử dụng các công cụ AI không kiểm soát, vô tình tiết lộ dữ liệu mật lên nền tảng công cộng. Tình trạng này không chỉ gây rò rỉ dữ liệu nội bộ mà còn đặt ra thách thức lớn trong công tác quản lý và bảo mật thông tin. Để hạn chế rủi ro, cần tăng cường đào tạo, cảnh báo người dùng AI về nguy cơ, đồng thời các nhà phát triển phải nhanh chóng vá lỗi bảo mật và kiểm soát chặt chẽ quyền truy cập của trợ lý AI vào dữ liệu cá nhân và doanh nghiệp.