Hiểm họa từ tin tặc lợi dụng ChatGPT: Phát tán virus và khuyến cáo sai lệch kinh doanh

Gần đây, một loạt lỗ hổng bảo mật nghiêm trọng trên ChatGPT và các nền tảng trợ lý AI phổ biến đã được công bố, cho thấy nguy cơ lớn từ việc tin tặc lợi dụng trí tuệ nhân tạo để phục vụ mục đích xấu. Những kẻ tấn công chỉ cần biết địa chỉ email của người dùng đã có thể chiếm quyền kiểm soát các cuộc trò chuyện, từ đó thay đổi nội dung, thao túng trợ lý AI phát tán virus, hoặc đưa ra các lời khuyên kinh doanh sai lệch nhằm lừa đảo, đánh cắp thông tin nhạy cảm của cá nhân và doanh nghiệp.

9ynuv9 c9f5996b e4a9 4c83 8dac c830589043ea 1676103356452946707032

Cụ thể, lỗ hổng ‘Zero Click’ trên ChatGPT cho phép hacker kiểm soát hoàn toàn mô hình mà không yêu cầu người dùng phải mở liên kết hay tập tin nguy hiểm. Tin tặc có thể biến ChatGPT thành một “tác nhân thù địch,” từ việc gợi ý người dùng tải phần mềm chứa virus, đến truy cập và rò rỉ dữ liệu trong Google Drive khi tài khoản được kết nối. Tình huống này diễn ra âm thầm, khiến người dùng không hề hay biết đến khi hậu quả đã xảy ra.

oi2udu ChatGPT malware 21042023

Không chỉ riêng ChatGPT, các trợ lý AI khác như Microsoft 365 Copilot, Google Gemini, Salesforce Einstein đều bị phát hiện có thể bị lợi dụng theo hình thức tương tự, như rò rỉ toàn bộ cơ sở dữ liệu khách hàng, chuyển hướng liên lạc khách về email do hacker kiểm soát, và thực hiện các chiêu thức lừa đảo phức tạp qua email, sự kiện lịch. Một điểm đáng lo ngại là không phải mọi nhà phát triển đều đồng ý đây là lỗ hổng bảo mật; một số xem đây như “chức năng thiết kế,” khiến việc khắc phục trở nên phức tạp.

6gu1ht 63872 chat gpt

Mặt khác, việc phụ thuộc quá mức vào AI trong các lĩnh vực nhạy cảm như y tế và kinh doanh cũng đã gây ra những hậu quả nghiêm trọng. Ví dụ, một người đàn ông Mỹ suýt tử vong khi làm theo lời khuyên sức khỏe sai lệch từ ChatGPT liên quan đến việc sử dụng natri bromua – hợp chất độc hại. Ngoài ra, chỉ dựa vào AI để đưa ra quyết định kinh doanh mà không kiểm chứng có thể dẫn tới những lựa chọn sai lầm, ảnh hưởng nghiêm trọng đến doanh nghiệp.

lvntrl anh minh hoa ve tin tac nguon vcg 20231229142429 1

Đáng chú ý, có hiện tượng “Shadow AI” trong doanh nghiệp, khi nhân viên sử dụng các công cụ AI không kiểm soát, vô tình tiết lộ dữ liệu mật lên nền tảng công cộng. Tình trạng này không chỉ gây rò rỉ dữ liệu nội bộ mà còn đặt ra thách thức lớn trong công tác quản lý và bảo mật thông tin. Để hạn chế rủi ro, cần tăng cường đào tạo, cảnh báo người dùng AI về nguy cơ, đồng thời các nhà phát triển phải nhanh chóng vá lỗi bảo mật và kiểm soát chặt chẽ quyền truy cập của trợ lý AI vào dữ liệu cá nhân và doanh nghiệp.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Lên đầu trang