今天,我既凶殘又仁慈。我故意殺死了領取養老金者和幾條狗。我撞了無家可歸者,殺死了兩名運動員,軋過了肥胖者。但是,我始終努力救孩子。
我在「道德機器」(Moral Machine)——麻省理工學院(MIT)運行的一項公開實驗——上完成測試後發現,我的道德觀跟很多人不一樣。有些人辯稱,在道德困境上把公衆意見彙集到一起,是向無人駕駛汽車等智慧機器賦予有限道德推理能力的有效手段。然而,在測試之後,我不相信群眾外包是形成殺戮道德(本質上就是這麼回事)的最佳途徑。這個問題並不單純是學術層面的:一輛配備「半自動式」Autopilot的特斯拉(Tesla)汽車的駕車者死亡,導致該公司在中國被起訴。特斯拉否認那起事故的過錯在於該項技術。
任何人只要有臺電腦,利用咖啡時間就可以參加麻省理工學院的大眾實驗。該實驗想像一輛全自動駕駛汽車的剎車失靈。這輛車載滿了乘客,正朝行人開過去。實驗給出了這一「無軌電車難題」的13個版本。這是一個經典的道德難題,需要決定誰將死於一輛失控電車的車輪之下。
您已閱讀34%(434字),剩餘66%(851字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。