không cần con người dưới mặt đất hướng dẫn từng bước. Không có AI,
những sự đầu tư thương mại như vậy khó có thể xảy ra.
Khi luật pháp yêu cầu con người hành động
Khái niệm rằng sự tự động hóa có thể dẫn đến rủi ro đã trở thành một chủ
đề phổ biến trong khoa học viễn tưởng. Ngay cả khi chúng ta đều thoải mái
với việc tự động hóa máy hoàn toàn, luật pháp có thể sẽ không cho phép
như vậy. Isaac Asimov
*
đã đưa ra ba điều luật cho robot khó mã hóa, được
thiết kế khéo léo để loại bỏ khả năng robot có thể gây hại cho con người.
8
*
Isaac Asimov là một tác giả người Mỹ và là giáo sư hóa sinh tại Đại học
Boston. Ông nổi tiếng nhất với các tác phẩm về khoa học viễn tưởng.
Tương tự, những nhà triết học hiện đại thường đặt ra những tình huống khó
xử về mặt đạo đức mà dường như có vẻ trừu tượng. Hãy xem xét tình
huống xe đẩy: Hãy tưởng tượng rằng mình đang đứng ở một nơi cho phép
bạn đẩy một chiếc xe từ đoạn đường này sang đoạn đường khác. Bạn thấy
có năm người đang trên đường xe đẩy của bạn. Bạn có thể đổi sang đoạn
đường khác, nhưng có một người đang đi trên đoạn đường đó. Bạn không
có lựa chọn nào khác và không có thời gian để suy nghĩ. Bạn sẽ làm gì?
Câu hỏi đó gây bối rối nhiều người, và thường họ sẽ chỉ muốn tránh suy
nghĩ về những câu hỏi hóc búa. Tuy nhiên, với những chiếc xe tự lái, tình
huống đó có thể xảy ra. Một ai đó sẽ phải giải quyết vấn đề nan giải và lập
trình phản ứng phù hợp cho xe. Vấn đề này không thể tránh khỏi. Ai đó –
khả năng cao là luật pháp – sẽ quyết định ai sống và ai chết.
Hiện tại, thay vì mã hóa những lựa chọn về mặt đạo đức của chúng ta vào
máy tự động, chúng ta chọn cách giữ con người lại trong chuỗi. Ví dụ,
tưởng tượng một vũ khí bay có thể hoạt động hoàn toàn tự động – xác định,
nhắm mục tiêu và giết kẻ thù. Ngay cả khi một sỹ quan quân đội có thể tìm
được một máy dự đoán có thể phân biệt dân thường với lính, sẽ mất bao lâu
để các chiến sĩ tìm ra cách gây bối rối cho máy dự đoán? Mức độ yêu cầu