Theo nhận định của Tiến sĩ Dana McKay, giảng viên cấp cao ngành Công nghệ tương tác mới, Đại học RMIT (Australia), “Các thuật toán AI là tấm gương phản chiếu dữ liệu mà chúng được cung cấp. Trong bối cảnh hầu hết dữ liệu ít nhiều đều chứa thiên kiến của xã hội, nhiều thuật toán AI đang tự động đưa ra kết quả sai lệch. Điều này có thể gây ra những hậu quả tiêu cực đáng kể, đặc biệt là trong lĩnh vực tuyển dụng”.
Một vài năm trước, Google bị phát hiện là có xu hướng hiển thị quảng cáo những công việc có mức lương cao cho đối tượng là nam giới thay vì nữ giới, bởi vì có ít phụ nữ đảm nhiệm những công việc được trả lương cao hơn.
Điều này làm trầm trọng hóa sự thiên vị hàm chứa trong dữ liệu đầu vào – phụ nữ không thể nộp đơn xin việc cho những vị trí không hiển thị cho họ.
Tương tự như vậy, một thuật toán tuyên án được sử dụng ở Mỹ với mục đích ban đầu là loại bỏ sự thiên vị trong tư pháp bằng cách tự động ấn định các bản án. Tuy nhiên, thuật toán này được phát triển dựa trên các bản án trước đó nên thường ấn định mức án dài hơn cho người Mỹ gốc Phi.
Những thành kiến này đặc biệt nguy hiểm vì chúng ta thường không hiểu rõ được AI đưa ra khuyến nghị dựa trên cơ sở gì, và máy tính lại thường được cho là khách quan.
Với việc nhiều nhà tuyển dụng hiện bắt đầu sử dụng AI trong tuyển dụng, câu hỏi đặt ra là liệu các ứng viên có bị từ chối chỉ vì họ không phù hợp với thiên kiến hiện hữu hay không.
Khuôn khổ pháp lý đang cố gắng bắt kịp những vấn đề này. Một diễn biến mang tính bước ngoặt gần đây ở Mỹ đã buộc các công ty phải chịu trách nhiệm pháp lý về việc sử dụng phần mềm tuyển dụng thiên vị, ngay cả khi đó là phần mềm được sản xuất hàng loạt.
“Suy cho cùng, chúng ta cần luôn ghi nhớ rằng các thuật toán AI chỉ hoạt động tốt khi dữ liệu đầu vào cũng tốt” – Tiến sĩ Dana McKay nói.
Nguồn tin: https://genk.vn/cai-gia-phai-tra-khi-su-dung-ai-trong-tuyen-dung-20240301153140905.chn