Về mặt tích cực, những sự tấn công đó sẽ để lại dấu vết. Việc truy vấn máy
dự đoán nhiều lần để hiểu nó là cần thiết. Số lượng truy vấn bất thường
hoặc sự đa dạng truy vấn bất thường sẽ đưa ra cảnh báo. Một khi cảnh báo
thì việc bảo vệ máy dự đoán trở nên dễ hơn, cho dù không hẳn dễ dàng.
Nhưng ít nhất bạn biết rằng một sự tấn công đang xảy đến và kẻ tấn công
đã thu được gì. Sau đó, bạn có thể bảo vệ máy bằng cách chặn kẻ tấn công
hoặc chuẩn bị một kế hoạch dự phòng nếu có gì đó xảy ra.
Rủi ro dữ liệu phản hồi
Máy dự đoán của bạn sẽ tương tác với những nhân tố khác (con người hoặc
máy) bên ngoài doanh nghiệp của bạn, điều này tạo ra một nguy cơ khác:
những nhân tố xấu có thể cung cấp dữ liệu ảnh hưởng đến quá trình học của
AI. Điều này còn hơn cả thao túng một sự dự đoán, mà thay vào đó liên
quan đến việc dạy máy cách dự đoán sai có hệ thống.
Một ví dụ công khai và đầy ấn tượng xảy ra vào tháng 3 năm 2016 khi
Microsoft phát hành một chatbot trên Twitter tên Tay. Ý tưởng của
Microsoft khá rõ ràng: để Tay tương tác với mọi người trên Twitter và
quyết định xem phản hồi thế nào là tốt nhất. Ý định của nó là học cụ thể về
“cuộc trò chuyện bình thường và vui vẻ”.
16
Trên giấy tờ, đây là một cách
hợp lý để AI tiếp xúc với trải nghiệm nó cần để học nhanh. Tay ban đầu
không hơn một chú vẹt, nhưng với mục tiêu tham vọng hơn.
Internet, tuy nhiên, không phải là một bối cảnh nhẹ nhàng. Ngay sau khi
được khởi động, mọi người bắt đầu thử thách giới hạn của Tay. Baron
Memilton hỏi: “Bạn có ủng hộ nạn diệt chủng không” và Tay trả lời lại:
“@Baron_von_Derp Thực sự tôi có (ủng hộ)”. Tay nhanh chóng trở thành
một người phân biệt chủng tộc, phân biệt phụ nữ, ủng hộ Đức Quốc xã.
Microsoft đã loại bỏ cuộc thí nghiệm.
17
Những sự ảnh hưởng rất rõ ràng. Những đối thủ cạnh tranh hoặc những
người phỉ báng có thể sẽ cố đào tạo máy dự đoán của bạn đưa ra những dự