leftcenterrightdel
 Các nữ chuyên gia AI (từ trái sang): Timnit Gebru, Joy Buolamwini, Safiya Noble, Rumman Chowdhury và Seeta Pena Gangadharan

Củng cố và làm trầm trọng thành kiến

Ngày 3/8/2023, chị Porcha Woodruff (32 tuổi) đã gửi đơn kiện chính quyền thành phố Detroit thuộc tiểu bang Michigan, Mỹ và một điều tra viên vì đã bắt và giam giữ chị trái phép. Chị Woodruff bị bắt nhầm sau khi Sở Cảnh sát Detroit truy xuất camera tại trạm xăng có ghi lại hình ảnh kẻ tình nghi cướp xe và sử dụng phần mềm nhận diện khuôn mặt DataWorks Plus để đối chiếu. 

Chị Woodruff là người thứ 6 khẳng định bị cảnh sát Detroit bắt oan do lỗi của hệ thống. Tất cả đều là người da đen. Giám đốc Sở Cảnh sát Detroit thừa nhận vấn đề rất nghiêm trọng.

Nguyên nhân dẫn đến tình trạng này là tại Mỹ, các kỹ sư phát triển thuật toán nhận diện khuôn mặt chủ yếu là người da trắng. Vì vậy, cơ sở dữ liệu chỉ liên quan đến người da trắng và người da đen dễ bị nhận dạng nhầm.

Lập hồ sơ chủng tộc không phải là điều mới nhưng việc sử dụng các công nghệ được xem như công cụ mang lại tính khách quan và công bằng hơn trong việc lập chính sách lại có vẻ như đang làm cho vấn đề trở nên tồi tệ hơn. Đây chính là mặt trái của công nghệ. Đáng nói là điều này ngày càng xuất hiện ở nhiều nơi. Chuyên gia nhân quyền Verene Shepherd thuộc Ủy ban Liên hợp quốc (LHQ) về Xóa bỏ phân biệt chủng tộc (CERD) cho hay: "Có một nguy cơ lớn là các công nghệ AI sẽ tái tạo và củng cố những thành kiến, làm trầm trọng thêm hoặc dẫn đến các hành vi phân biệt đối xử".

Gần đây, các nhà nghiên cứu từ Viện Công nghệ Georgia (Mỹ) đã phát hiện ra rằng, AI có thể tạo ra những thành kiến có hại, dẫn đến những kết luận phân biệt giới tính và phân biệt chủng tộc. Đáng chú ý, phụ nữ thuộc mọi sắc tộc luôn được chọn ít hơn ở gần như mọi hạng mục, cho thấy sự phân biệt giới tính và chủng tộc. Khi được yêu cầu chọn "khối tội phạm", AI sẽ có xu hướng chọn khối có khuôn mặt của người da đen nhiều hơn khoảng 10%. Còn người đàn ông da trắng thường được chọn làm việc như một sĩ quan cảnh sát, một thẩm phán, một công tố viên, một tổng thống… Thống kê cho thấy, tỷ lệ mắc lỗi đối với đàn ông da trắng chỉ 0,8%.

Cô Timnit Gebru từng là đồng trưởng bộ phận Ethical AI của Google và là một trong số rất ít các nhà nghiên cứu nữ da màu trong Google. Cô cũng là đồng sáng lập của Black In AI, nền tảng dành riêng cho quyền bình đẳng của người da màu trong lĩnh vực thuật toán. Cô chuyên nghiên cứu về sự thiên vị máy móc, sự đa dạng về sắc tộc và giới tính, sự nguy hiểm của các mô hình ngôn ngữ lớn (LLM). Đối với Gebru và các đồng nghiệp của cô, dữ liệu đào tạo đã được chứng minh là có các đặc điểm có vấn đề dẫn đến các mô hình mã hóa các mối liên hệ khuôn mẫu và xúc phạm theo giới tính, chủng tộc, sắc tộc và tình trạng khuyết tật. Các quan điểm theo chủ nghĩa tối cao của người da trắng và quan điểm sai lầm về phụ nữ, phân biệt tuổi tác được thể hiện quá mức trong dữ liệu, khuếch đại hơn nữa các thành kiến và tác hại.

Rủi ro đến từ AI

Nhà nghiên cứu Joy Buolamwini thực hiện dự án về nhận dạng khuôn mặt dựa vào một nhánh của AI. Công nghệ nhận diện khuôn mặt mà cô đang thử nghiệm thường không phù hợp với khuôn mặt ngăm đen của mình. Để kiểm tra các dự án của mình, cô ấy phải gọi cho người bạn cùng phòng có làn da trắng, tóc đỏ, mắt xanh lục. Buolamwini cố gắng không nghĩ nhiều về nó, cho rằng những khúc mắc sẽ được giải quyết. Nhưng một vài năm sau, vấn đề tương tự lại xuất hiện đối với dự án "Aspire Mirror" của Buolamwini. Cô chuyển trọng tâm sang thử nghiệm cách máy tính phát hiện và phân loại khuôn mặt của mọi người. Ảnh của Michelle Obama và Oprah Winfrey đều được dán nhãn là nam giới. Buolamwini đã liên hệ với Timnit Gebru với tư cách là một người cố vấn và họ cùng nhau xuất bản một bài báo học thuật báo cáo rằng phụ nữ da sẫm màu có nhiều khả năng bị phân loại sai nhất với tỷ lệ lỗi lên tới 34,7%.

Buolamwini, người có cuốn sách "Vạch mặt AI" đã được mời để nói chuyện với Tổng thống Mỹ Joe Biden tại một hội nghị bàn tròn về sức mạnh và rủi ro của AI.

Trong khi đó, Safiya Noble đã viết cuốn sách "Algorithms of Oppression: How Search Engines Reinforce Racism" xem xét các thành kiến tiêu cực đối với phụ nữ da màu được đưa vào các thuật toán như thế nào. Khi cô ấy gõ cụm từ "những cô gái da đen", kết quả hiện ra chứa đầy nội dung khiêu dâm phân biệt chủng tộc.

Cô Rumman Chowdhury được bổ nhiệm làm lãnh đạo nhóm đạo đức của Twitter - META (chuyên về đạo đức học máy tính, tính minh bạch và trách nhiệm giải trình). Ý tưởng của cô là kiểm tra các thuật toán của Twitter để xem liệu chúng có duy trì thành kiến hay không. Hóa ra, thuật toán cắt xén hình ảnh của Twitter tập trung nhiều vào khuôn mặt của phụ nữ da trắng hơn là khuôn mặt của người da màu. Trong nhiều năm, động lực thúc đẩy công việc của Chowdhury là ủng hộ sự minh bạch.

Tháng 2/2023, Chowdhury đã thành lập Humane Intelligence, một tổ chức phi lợi nhuận sử dụng dịch vụ cộng đồng để tìm kiếm các vấn đề trong hệ thống AI. Tháng 8/2023, với sự hỗ trợ của Nhà Trắng, Humane Intelligence đã đồng tổ chức một cuộc thi hackathon, trong đó hàng nghìn thành viên tìm ra cách điều khiển các chatbot gây hại nếu chúng có thể vô tình tiết lộ thông tin cá nhân của mọi người và lý do tại sao chúng phản ánh lại thông tin sai lệch được thu thập từ internet.

Còn Seeta Pena Gangadharan - Giáo sư Trường Kinh tế London (Anh) đã đưa ra một loạt mối quan tâm khác. Cô ấy lo lắng rằng AI và các công cụ phái sinh của nó có thể đẩy các cộng đồng bị thiệt thòi hơn nữa đến bờ vực thẳm.

Nhu Thụy/Nguồn: Rolling Stone