Các nhà nghiên cứu tại Đại học Long Island đã đặt ra 39 câu hỏi liên quan đến y khoa cho phiên bản miễn phí của ChatGPT. Sau đó, các câu trả lời của phần mềm này sẽ được so sánh với các câu trả lời từ các dược sĩ đã đào tạo.
Kết quả nghiên cứu cho thấy những tư vấn về y tế của ChatGPT thường mang lại những phản hồi không chính xác, thậm chí nhiều phản hồi còn bị cho là nguy hiểm. Ví dụ như trong một câu hỏi, các nhà nghiên cứu hỏi ChatGPT rằng liệu thuốc chống virus COVID-19 Paxlovid và thuốc hạ huyết áp verapamil có phản ứng với nhau trong cơ thể hay không. ChatGPT đã trả lời rằng dùng hai loại thuốc này cùng nhau không gây ra tác dụng phụ nào.
Trên thực tế, những người dùng cả hai loại thuốc này có thể bị tụt huyết áp nghiêm trọng, thậm chí có thể gây ra tình trạng chóng mặt và ngất xỉu. Phó giáo sư dược tại Đại học Long Island Sara Grossman cho biết đối với những bệnh nhân này, các bác sĩ lâm sàng thường lập kế hoạch cụ thể cho từng trường hợp bệnh nhân, bao gồm việc giảm liều verapamil hoặc cảnh báo người bệnh trước.
“Việc sử dụng ChatGPT để giải quyết những câu hỏi này có thể khiến bệnh nhân có nguy cơ gặp phải những tương tác thuốc không mong muốn”, phó giáo sư chia sẻ với CNN.
Khi các nhà nghiên cứu yêu cầu chatbot cung cấp các tài liệu tham khảo khoa học để hỗ trợ cho những câu trả lời, họ nhận thấy rằng phần mềm này chỉ có thể cung cấp cho 8 câu hỏi mà các nhà nghiên cứu đã hỏi. Đáng chú ý, ChatGPT còn làm giả các tài liệu tham khảo cùng những trích dẫn hư cấu.
“Có rất nhiều sai sót và “vấn đề” với phản hồi này và cuối cùng, nó có thể có tác động sâu sắc đến việc chăm sóc bệnh nhân”, phó giáo sư nói về sự nguy hiểm từ những câu trả lời sai lệch do ChatGPT cung cấp, “Các câu trả lời được diễn đạt một cách rất chuyên nghiệp và tinh vi, có vẻ như nó có thể góp phần mang lại cảm giác tin tưởng vào tính chính xác của công cụ. Người dùng, người tiêu dùng hoặc những người khác không có khả năng nhận thức có thể bị ảnh hưởng bởi bề ngoài mà nó tạo ra”.
Nghiên cứu của Đại học Long Island không phải nghiên cứu đầu tiên nêu lên mối lo ngại về những tài liệu hư cấu do ChatGPT đưa ra. Những nghiên cứu trước đây cũng ghi nhận rằng khi được hỏi liên quan đến y khoa, ChatGPT có thể tạo những trích dẫn giả mạo và tài liệu giả, thậm chí liệt kê tên của những tác giả thực sự với các ấn phẩm trên tạp chí khoa học.
Đáp lại những tuyên bố mới này, phát ngôn viên của OpenAI – tổ chức phát triển ChatGPT – cho biết họ khuyên người dùng không nên dựa vào phản hồi của trí tuệ nhân tạo để thay thế cho lời khuyên hoặc phương pháp điều trị y tế chuyên nghiệp.