Các hãng công nghệ vẫn luôn cảnh báo người dùng về những sai lầm mà các mô hình AI có thể mắc phải, nhưng sai lầm đến mức nạn nhân phải khởi kiện như trường hợp dưới đây thì thật là hiếm có.
Đó là câu chuyện về một nhà báo Đức tên Martin Bernklau. Ông này đã dành hàng chục năm để đưa tin về các phiên tòa hình sự. Một ngày đẹp trời, ông quyết định tìm kiếm tên mình trên Bing, và Bing gợi ý ông sử dụng chatbot AI Copilot của Microsoft.
Ai ngờ, Copilot lại đưa ra một loạt cáo buộc về các tội danh mà Bernklau đã phạm phải. Các câu trả lời đó cho rằng, nhà báo này là một người làm nghề mai táng lạm dụng và bóc lột những góa phụ, hơn nữa còn lạm dụng trẻ em, thậm chí còn bảo ông là một bệnh nhân tâm thần hình sự đã trốn thoát. Thật sự hãi hùng.
Trên thực tế, đây chính là các câu chuyện mà Bernklau đã viết về trong sự nghiệp báo chí của mình. Nhưng không hiểu vì lý do nào đó Copilot đã “xào nấu” lại các thông tin này và biến ông thành nhân vật chính trong các vụ án đó. Chưa hết, Copilot còn “tiện tay” đưa luôn cả số điện thoại và địa chỉ của Bernklau vào trong các kết quả đó.
Mọi chuyện càng trở nên tồi tệ hơn khi ông Bernklau báo cáo về vụ việc, Văn phòng Công tố Tübingen lại có một phản ứng khá… kỳ quặc. Họ bảo rằng vì không có ai cụ thể đưa ra những cáo buộc này, nên chẳng có tội phạm hình sự nào được thực hiện cả.
Sau đó, Văn phòng Bảo vệ Dữ liệu Bavaria mới tham gia vào và liên hệ với Microsoft, buộc công ty phải lọc bớt những câu trả lời của Copilot về Bernklau – nhưng chỉ vài ngày sau, những cáo buộc tồi tệ trên lại xuất hiện trở lại.
Điều thú vị hơn là, công cụ tìm kiếm AI của Perplexity cũng cho ra kết quả tương tự, nhưng AI còn “thẳng thắn” hơn khi chỉ đích danh hệ thống chat chịu trách nhiệm cho các thông tin này là Copilot.
Hiện Bernklau đã không ngồi yên. Ông thuê luật sư và đang kiện Microsoft về tội phỉ báng và xâm phạm quyền riêng tư. Ông coi Microsoft là tổ chức phải chịu trách nhiệm – bất kể Copilot có cố gắng thoái thác trách nhiệm trong các điều khoản dịch vụ của nó như thế nào đi nữa.
Câu chuyện này cho thấy, dù AI có thông minh đến đâu, nó vẫn có thể mắc những sai lầm nghiêm trọng. Và khi đó, ai sẽ là người chịu trách nhiệm?
Nguồn tin: https://genk.vn/chatbot-copilot-ai-vu-khong-mot-phong-vien-la-toi-pham-tam-than-microsoft-bi-khoi-kien-20240826210444439.chn