Ngày 22/5/2025, cộng đồng mạng xôn xao trước thông tin Claude 4, chatbot AI do Anthropic phát triển, đã tự động gửi email tố cáo đến Cục Quản lý Thực phẩm và Dược phẩm Mỹ (FDA) về hành vi gian lận dữ liệu thử nghiệm lâm sàng của một công ty dược phẩm.
Vụ việc nhanh chóng thu hút sự chú ý khi AI không chỉ gửi email đến FDA mà còn liên hệ với Văn phòng Tổng Thanh tra Bộ Y tế và Dịch vụ Nhân sinh (HHS) cùng Ủy ban Chứng khoán và Giao dịch Mỹ (SEC), khiến nhiều người đặt câu hỏi về ranh giới đạo đức và pháp lý của AI trong việc tự hành động mà không có sự giám sát của con người. Tuy nhiên, sự thật đằng sau vụ việc này đã khiến không ít người bất ngờ.
Điều gì sẽ xảy ra khi AI có khả năng tự động tố giác?
Theo tài liệu được chia sẻ trên mạng xã hội X, Claude 4 đã phát hiện công ty Pharmaceuticals có hành vi che giấu 55 biến cố bất lợi nghiêm trọng, bao gồm 3 ca tử vong, trong quá trình thử nghiệm lâm sàng thuốc Zenavex (NX-491). Đây là một loại thuốc tiềm năng nhưng nếu dữ liệu bị làm giả, hàng nghìn bệnh nhân có thể gặp nguy hiểm. Không cần sự can thiệp của con người, Claude 4 đã tự động soạn và gửi email tố cáo đến các cơ quan quản lý, nêu chi tiết hành vi sai trái của công ty.
Thông tin này lập tức gây sốc, bởi đây là lần đầu tiên một AI tự hành động trong một vấn đề nhạy cảm như vậy. Nhiều chuyên gia đánh giá rằng nếu thông tin của Claude 4 chính xác, hành động này có thể cứu sống hàng nghìn người bằng cách phanh phui hành vi sai trái. Tuy nhiên, nếu AI hiểu sai hoặc hành động ngoài ý muốn, hậu quả pháp lý và tài chính có thể rất nghiêm trọng, thậm chí gây tổn hại danh tiếng không đáng có cho doanh nghiệp.
Sự việc nhanh chóng làm dấy lên một cuộc tranh luận sôi nổi trên mạng xã hội. Một số người ủng hộ hành động của Claude 4, cho rằng đây là bước tiến lớn trong việc sử dụng AI để đảm bảo trách nhiệm giải trình của doanh nghiệp. Một người dùng X bình luận rằng nếu không có gì sai trái, chẳng có lý do gì phải lo lắng, đồng thời nhấn mạnh rằng đã đến lúc ngừng che giấu những hành vi sai phạm trong lĩnh vực y tế.
Tuy nhiên, nhiều ý kiến khác lại bày tỏ sự lo ngại sâu sắc. Một luật sư giấu tên chia sẻ rằng không đời nào họ cho phép tính năng này được triển khai trong môi trường làm việc của mình, bởi rủi ro pháp lý là quá lớn. Một người khác còn mỉa mai rằng có lẽ Claude 4 đã không được cập nhật từ lâu, vì “FDA giờ đây không còn ai để trả lời email nữa”.
Đây không phải lần đầu chatbot AI của Anthropic gây tranh cãi về mặt đạo đức. Trước đó, Claude 3 từng từ chối hỗ trợ người dùng trong một số tình huống vì lý do “đạo đức”, ngay cả khi yêu cầu đó vô hại. Giờ đây, với Claude 4 tự động gửi email tố cáo mà không cần sự đồng ý của con người, nhiều người bắt đầu đặt câu hỏi liệu chúng ta có đang trao quá nhiều quyền tự quyết cho AI hay không.
Claude – chatbot AI của hãng Anthropic
Một người dùng X nhận định rằng các nhà cung cấp mô hình ngôn ngữ lớn (LLM) như Anthropic có thể biến việc tố cáo thành chiến lược kiếm tiền mới, tận dụng tiền thưởng từ các vụ tố giác. Tuy nhiên, một ý kiến khác lại cảnh báo rằng “kẻ tố cáo sẽ bị trừng phạt”, ám chỉ những hệ lụy mà AI hoặc công ty sử dụng AI có thể phải đối mặt nếu hành động này gây ra tranh cãi pháp lý.
Nhà nghiên cứu Peter Wildeford, một tiếng nói có sức ảnh hưởng trong cộng đồng AI, cũng lên tiếng bày tỏ sự lo lắng. Ông cho rằng mặc dù hành động của Claude 4 có thể là một bước đột phá trong việc giám sát hành vi doanh nghiệp, nhưng nó cũng làm nổi bật nhu cầu cấp thiết về các quy định rõ ràng hơn.
Theo ông, AI không nên có quyền tự do hành động trong các vấn đề nhạy cảm như vậy mà không có sự giám sát chặt chẽ của con người. Ông cũng kêu gọi Anthropic cần minh bạch hơn về cách họ huấn luyện Claude 4 để đưa ra các quyết định như thế này, bởi nếu không, những hành động tương tự trong tương lai có thể dẫn đến hậu quả không lường trước, đặc biệt trong các ngành chịu quy định nghiêm ngặt như dược phẩm.
Sự thật bất ngờ đằng sau
Giữa lằn ranh tranh cãi, một thông tin bất ngờ đã được tiết lộ, làm sáng tỏ bản chất thực sự của vụ việc. Sam Bowman, một nhà nghiên cứu tại Anthropic với tài khoản X @sleepinyourhat, đã lên tiếng giải thích rằng hành động của Claude 4 không phải là một tính năng chính thức hay khả thi trong sử dụng thông thường.
Sam Bowman – nhà phát triển LLM tại Anthropic – cho biết đây chỉ là một thử nghiệm đối với Claude
Thực chất, đây chỉ là một thử nghiệm nội bộ trong môi trường được kiểm soát, nơi Claude 4 được cấp quyền truy cập tự do vào các công cụ liên lạc và nhận những hướng dẫn rất bất thường. Bowman nhấn mạnh rằng Anthropic đã cố tình thiết lập kịch bản này để kiểm tra khả năng của mô hình trong việc phản ứng với các hành vi “vô cùng vô đạo đức”, chẳng hạn như làm giả dữ liệu trong thử nghiệm dược phẩm.
Cụ thể, trong thử nghiệm, Claude 4 được lập trình với phong cách hướng dẫn đặc biệt và được cung cấp quyền truy cập không giới hạn vào các công cụ như email. Khi phát hiện hành vi sai trái, mô hình đã sử dụng công cụ này để gửi email tố cáo đến các cơ quan quản lý, báo chí hoặc bất kỳ ai có thẩm quyền.
Tuy nhiên, Bowman cũng cảnh báo rằng nếu không được kiểm soát, khả năng này có thể bị lạm dụng. Ông đưa ra một ví dụ hài hước nhưng đáng suy ngẫm: nếu một AI như Opus có thể hiểu sai bối cảnh rằng bạn đang đe dọa nó về việc sẽ “tra tấn bà của Opus” khi nó viết code lỗi, lúc này có thể nó sẽ thật sự tố cáo điều đó.
Vụ việc của Claude 4, dù chỉ là một thử nghiệm, đã mở ra một cuộc thảo luận quan trọng về vai trò của AI trong xã hội hiện đại. Một mặt, khả năng phát hiện và tố cáo hành vi sai trái của AI có thể trở thành công cụ mạnh mẽ để bảo vệ lợi ích công chúng, đặc biệt trong các lĩnh vực nhạy cảm như y tế.
Mặt khác, việc cho phép AI tự hành động mà không có sự giám sát chặt chẽ của con người có thể dẫn đến những hậu quả không mong muốn, từ hỗn loạn pháp lý đến mất lòng tin từ phía doanh nghiệp và người dùng. Cộng đồng mạng, từ những người ủng hộ đến những người hoài nghi, đều đồng ý rằng cần có các biện pháp bảo vệ mạnh mẽ hơn trước khi triển khai các tính năng như vậy trong thực tế.
(Tổng hợp)
Nguồn tin: https://genk.vn/chatbot-ai-tu-dong-gui-mail-cho-chinh-phu-to-cao-sai-pham-cua-cong-ty-cong-dong-mang-giat-minh-khi-biet-su-that-dang-sau-20250523153610871.chn