機器人

FT社評:爲科技業試圖防範「終結者」點贊

「殺手機器人」可能仍然只存在於科幻小說中,但自主操作的武器即將成爲現實。科技業呼籲制定更明確的規則是正確的。

「機器人不得傷害人類,或目睹人類個體將遭受危險而袖手不管,」以撒•艾西莫夫(Isaac Asimov)的戒律奠定了其未來主義小說的道德基礎;但在他首次明確表述「機器人三定律」的75年後,這條至關重要的第一原則正在被現實壓倒。

沒錯,迄今爲止還沒有「殺手機器人」馳騁在戰場上。但現在已經出現了可用來探查威脅並向目標——無論是飛來的飛彈還是靠近的人類——開火的防禦系統。五角大廈(Pentagon)測試了一批迷你無人機——它們帶來了一種可能性,即未來指揮官可派出一羣羣的skybot(空中機器人)進入敵人領土,收集情報、阻斷雷達、或在人臉辨識技術的輔助下完成刺殺任務。從中國到以色列、從俄羅斯到英國,很多政府都急於把人工智慧方面取得的快速進展應用於軍事用途。

對於研究人員和科技業高階主管來說,這種情況值得擔憂。他們已經因顛覆性技術將對社會產生的影響而飽受抨擊,他們不希望看到自己的商業創新被改造後用於製造毀滅。因此,百餘家機器人和人工智慧企業的創辦人日前聯合呼籲聯合國採取行動,阻止各國在致命性自主武器系統方面展開軍備競賽。他們在公開信中強調了他們的擔憂,稱此類技術可能使衝突達到「前所未有的規模」、可能幫助專制政權壓制異見者,這些武器還可能因受到駭客攻擊而做出有害的行爲。

您已閱讀45%(533字),剩餘55%(659字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×