Sony AI vừa công bố một bộ dữ liệu mới nhằm đánh giá tính công bằng và thiên vị của các mô hình trí tuệ nhân tạo. Bộ dữ liệu mang tên FHIBE (phát âm giống "Phoebe") được quảng bá là tập ảnh người có sự đồng ý, đa dạng toàn cầu và công khai đầu tiên cho nhiều bài toán thị giác máy tính.
Các ảnh trong FHIBE được chú thích chi tiết, bao gồm đặc điểm dân số học và thể chất, yếu tố môi trường và cả thông số máy ảnh, giúp phân tích nguyên nhân sâu xa dẫn tới thiên vị trong mô hình.
Một ví dụ đáng chú ý: một số mô hình thể hiện độ chính xác thấp hơn với người dùng có đại từ nhân xưng "she/her/hers", và FHIBE phát hiện biến thể kiểu tóc là một yếu tố trước đây ít được lưu ý nhưng ảnh hưởng tới kết quả.
FHIBE cũng chỉ ra rằng các mô hình hiện tại có xu hướng củng cố định kiến khi bị hỏi về nghề nghiệp một cách trung lập, thường thiên lệch với một số nhóm theo đại từ hoặc nguồn gốc tổ tiên. Trong một số trường hợp, khi được hỏi về tội danh, mô hình đôi khi đưa ra các phản hồi mang tính độc hại nhiều hơn đối với người có nguồn gốc châu Phi hoặc châu Á, những người có tông da tối hơn và những người tự nhận là "he/him/his".
Nguồn: Engadget
Sơ lược về FHIBE
FHIBE là viết tắt của Fair Human-Centric Image Benchmark (phát âm giống "Phoebe"). Sony mô tả đây là "tập dữ liệu ảnh người có sự đồng ý, đa dạng toàn cầu và công khai đầu tiên" để đánh giá thiên vị trên nhiều nhiệm vụ thị giác máy tính.Nội dung và cách thu thập
Bộ dữ liệu bao gồm hình ảnh của gần 2.000 tình nguyện viên đến từ hơn 80 quốc gia. Tất cả ảnh đều được chia sẻ trên cơ sở có sự đồng ý của người được chụp, và người tham gia có thể yêu cầu xóa ảnh của mình bất cứ lúc nào.Các ảnh trong FHIBE được chú thích chi tiết, bao gồm đặc điểm dân số học và thể chất, yếu tố môi trường và cả thông số máy ảnh, giúp phân tích nguyên nhân sâu xa dẫn tới thiên vị trong mô hình.
Phát hiện chính
Sony cho biết công cụ này đã "khẳng định những thiên vị đã được ghi nhận trước đây" trong các mô hình AI hiện nay. FHIBE còn giúp chẩn đoán chi tiết các yếu tố góp phần tạo ra thiên vị.Một ví dụ đáng chú ý: một số mô hình thể hiện độ chính xác thấp hơn với người dùng có đại từ nhân xưng "she/her/hers", và FHIBE phát hiện biến thể kiểu tóc là một yếu tố trước đây ít được lưu ý nhưng ảnh hưởng tới kết quả.
FHIBE cũng chỉ ra rằng các mô hình hiện tại có xu hướng củng cố định kiến khi bị hỏi về nghề nghiệp một cách trung lập, thường thiên lệch với một số nhóm theo đại từ hoặc nguồn gốc tổ tiên. Trong một số trường hợp, khi được hỏi về tội danh, mô hình đôi khi đưa ra các phản hồi mang tính độc hại nhiều hơn đối với người có nguồn gốc châu Phi hoặc châu Á, những người có tông da tối hơn và những người tự nhận là "he/him/his".
Ý nghĩa và tính khả dụng
Sony AI khẳng định FHIBE chứng minh rằng việc thu thập dữ liệu đạo đức, đa dạng và công bằng là khả thi. Bộ dữ liệu này hiện đã được công bố công khai và sẽ được cập nhật theo thời gian. Nghiên cứu liên quan cũng đã được đăng trên tạp chí Nature.Nguồn: Engadget
Bài viết liên quan
