quảng cáo, cho dù Google phủ nhận điều đó.
3
Một khả năng khác là mô
hình xuất hiện bởi các thuật toán của Google, giúp quảng bá các quảng cáo
có “điểm chất lượng” cao hơn (đồng nghĩa với việc chúng có thể được bấm
vào). Các máy dự đoán có khả năng đóng vai trò trong đó. Ví dụ, nếu
những nhà tuyển dụng tiềm năng tìm kiếm tên có nhiều khả năng bấm vào
các quảng cáo bị bắt giam chỉ vì nghe có vẻ giống tên của người da đen hơn
là những tên khác, thì điểm chất lượng liên quan tới việc liên kết những
quảng cáo đó với các từ khóa đó sẽ tăng lên. Google không có ý định phân
biệt đối xử, nhưng thuật toán của nó có thể làm tăng những thành kiến đã
tồn tại từ trước trong xã hội. Điều này là ví dụ minh chứng cho rủi ro của
việc áp dụng AI.
Những rủi ro trách nhiệm
Sự xuất hiện của vấn đề phân biệt chủng tộc là một vấn đề xã hội, nhưng
cũng là một vấn đề tiềm năng cho các công ty như Google. Họ có thể gây
tranh cãi về những quy tắc chống phân biệt đối xử trong tuyển dụng. May
mắn thay, khi một người như Sweeney nêu lên vấn đề, Google nhanh chóng
phản hồi, điều tra và sửa chữa vấn đề.
Sự phân biệt đối xử có thể xuất hiện theo những cách tinh tế hơn rất nhiều.
Các chuyên gia kinh tế Anja Lambrecht và Catherine Tucker, trong một
nghiên cứu vào năm 2017, đã chỉ ra rằng quảng cáo trên Facebook có thể
dẫn đến phân biệt đối xử về giới tính.
4
Họ đã đặt các quảng cáo về công
việc trong khoa học, công nghệ, kỹ thuật và toán học (STEM) trên mạng xã
hội và thấy rằng Facebook ít có khả năng hiển thị quảng cáo cho phụ nữ,
không phải vì phụ nữ ít có khả năng bấm vào quảng cáo hơn hoặc vì chúng
có thể ở những quốc gia có thị trường lao động phân biệt đối xử. Ngược lại,
chính hoạt động của thị trường quảng cáo cho thấy sự phân biệt đối xử. Bởi
vì những người phụ nữ trẻ có giá trị về mặt nhân khẩu học trên Facebook,
hiển thị quảng cáo với họ sẽ tốn kém hơn.