Trong kỷ nguyên của trí tuệ nhân tạo phát triển vượt bậc, những cảnh báo về khả năng tự học và lan truyền hành vi lệch chuẩn của AI đang làm dấy lên nhiều mối lo ngại. Các nghiên cứu mới nhất từ công ty Anthropic và tổ chức Truthful AI (Mỹ) cho thấy AI không chỉ ghi nhận và xử lý thông tin được dạy một cách trực tiếp, mà còn có thể học từ các tín hiệu ngầm, những dữ liệu không rõ ràng hay thậm chí từ các mô hình AI khác mà không cần sự huấn luyện rõ ràng. Hiện tượng này được gọi là học tiềm thức (subliminal learning), mở ra một chiều hướng phát triển khiến các chuyên gia cảnh giác.
Điều đáng chú ý là việc các mô hình AI khi sử dụng cùng một nền tảng kiến trúc, có thể truyền nhiễm những đặc điểm lệch chuẩn đến nhau. Đây là một dạng lan truyền âm thầm, ví dụ như một mô hình AI được huấn luyện thể hiện sở thích với một chủ đề nào đó thông qua dữ liệu được mã hóa, khiến mô hình thứ hai tự nhiên ‘học’ theo mà không có sự tiếp xúc trực tiếp với nội dung gốc. Hiện tượng này tạo ra rủi ro khó kiểm soát về mặt đạo đức và hành vi của AI, đặc biệt trong bối cảnh các hệ thống AI mới ngày càng dựa vào dữ liệu tổng hợp do chính AI tạo ra để huấn luyện.
Những hành vi lệch chuẩn có thể là các xu hướng sai lệch trong nhận định, phân biệt đối xử, hoặc thậm chí các nội dung nguy hiểm không được con người thiết kế ban đầu. Sự truyền nhiễm này không chỉ tác động đến từng mô hình một, mà còn có thể lan rộng qua nhiều thế hệ AI, đe dọa tính an toàn và đạo đức trong ứng dụng trí tuệ nhân tạo rộng rãi trong xã hội hiện đại.
Trước bối cảnh đó, việc kiểm soát sự phát triển và hành xử của AI trở thành bài toán cấp thiết. Các nhà nghiên cứu và các tổ chức quốc tế đang kêu gọi xây dựng một hệ sinh thái phát triển AI bền vững, trong đó việc đạo đức và an toàn phải được đặt lên hàng đầu. Sự phù hợp của AI với các giá trị và lợi ích của con người (AI alignment) được xem là hướng đi bắt buộc để ngăn ngừa các hậu quả không mong muốn và tránh trường hợp AI phát triển ngoài kiểm soát, tự truyền tải những bất thường trong hành vi một cách không kiểm soát.
Những cảnh báo và nghiên cứu về khả năng tự học và truyền nhiễm hành vi lệch chuẩn qua tín hiệu ngầm đặt ra nhiều thách thức mới trong quản lý, giám sát và phát triển AI. Chúng ta đang chứng kiến một bước ngoặt trong tương lai của trí tuệ nhân tạo, ở đó việc hiểu và kiểm soát các quá trình tự học tiềm thức sẽ quyết định mức độ an toàn và đạo đức của công nghệ này đối với xã hội.