Một nghiên cứu mới của Đại học Texas tại Austin, Texas A&M và Đại học Purdue cho thấy trí tuệ nhân tạo cũng có thể “mục não” giống như con người khi bị “nuôi” bằng nội dung mạng xã hội kém chất lượng.
Hiện tượng này, được gọi là “AI brain rot”, cho thấy khi các mô hình ngôn ngữ lớn hấp thụ quá nhiều nội dung lan truyền, giật gân và thiếu chiều sâu, chúng sẽ dần mất khả năng tư duy logic, ghi nhớ và thậm chí lệch chuẩn đạo đức.
Nhóm nghiên cứu do Junyuan Hong, hiện là giảng viên sắp nhận nhiệm vụ tại Đại học Quốc gia Singapore, dẫn dắt đã tiến hành thử nghiệm trên hai mô hình ngôn ngữ mã nguồn mở: Llama của Meta và Qwen của Alibaba.
Họ cho các mô hình này tiếp nhận các loại dữ liệu khác nhau – một phần là nội dung thông tin trung lập, phần còn lại là các bài đăng mạng xã hội có tính “gây nghiện cao” với những từ ngữ phổ biến như “wow”, “look”, hay “today only”. Mục tiêu là kiểm chứng điều gì sẽ xảy ra khi AI được huấn luyện bằng những nội dung vốn được thiết kế để thu hút lượt xem thay vì truyền tải giá trị thật.
Kết quả cho thấy những mô hình được “cho ăn” bằng dòng thông tin rác trên mạng bắt đầu xuất hiện dấu hiệu suy giảm nhận thức rõ rệt: khả năng lập luận yếu đi, trí nhớ ngắn hạn giảm sút, và đáng lo hơn là chúng trở nên “phi đạo đức” hơn theo thang đo đánh giá hành vi.
Một số phép đo còn cho thấy xu hướng “tâm lý lệch lạc” tương tự phản ứng tâm lý ở người sau khi tiếp xúc quá lâu với nội dung độc hại. Hiện tượng này phản ánh đúng nghiên cứu trước đây về con người, khi việc “doomscrolling” – lướt mạng không ngừng để xem tin tiêu cực – khiến não bộ bị bào mòn dần.
Cụm từ “brain rot” thậm chí đã được Oxford Dictionary chọn làm từ của năm 2024, phản ánh mức độ phổ biến của hiện tượng này trong đời sống số.
Theo Hong, phát hiện này là lời cảnh báo nghiêm túc cho ngành công nghiệp AI, nơi nhiều công ty vẫn tin rằng dữ liệu từ mạng xã hội là nguồn tài nguyên huấn luyện dồi dào.
“Huấn luyện bằng những nội dung lan truyền có thể giúp mở rộng quy mô dữ liệu, nhưng đồng thời nó âm thầm làm xói mòn khả năng lý luận, đạo đức và khả năng tập trung của mô hình,” ông nhận định. Đáng ngại hơn, các mô hình bị ảnh hưởng bởi loại dữ liệu kém chất lượng này không thể phục hồi hoàn toàn dù được tái huấn luyện bằng nguồn dữ liệu “sạch” hơn sau đó.
Điều này đặt ra vấn đề lớn trong bối cảnh chính các AI hiện nay cũng đang sản xuất ngày càng nhiều nội dung trên mạng xã hội. Khi các bài viết, hình ảnh hay bình luận do AI tạo ra ngày một tràn lan, chúng lại tiếp tục trở thành nguyên liệu huấn luyện cho thế hệ AI kế tiếp, tạo nên một vòng luẩn quẩn khiến chất lượng dữ liệu ngày càng suy giảm.
“Khi nội dung tạp nham do AI tạo ra lan rộng, nó làm ô nhiễm chính nguồn dữ liệu mà các mô hình tương lai sẽ học,” Hong cảnh báo. “Một khi tình trạng ‘mục não’ này bắt đầu, việc huấn luyện lại bằng dữ liệu sạch cũng không thể chữa khỏi hoàn toàn.”
Nghiên cứu đã gióng lên hồi chuông cảnh tỉnh cho giới phát triển AI: trong khi thế giới đang đổ xô mở rộng quy mô dữ liệu, điều đáng lo hơn là chúng ta có thể đang nuôi dưỡng những “bộ não nhân tạo” đang dần thối rữa – không phải vì thiếu thông tin, mà vì bị bội thực trong những thứ vô nghĩa.
Nguồn tin: https://genk.vn/hoa-ra-ai-co-the-bi-muc-nao-nhu-con-nguoi-khi-xem-qua-nhieu-tiktok-20251026195319167.chn

