FT商學院

讓人工智慧重新變得安全

認爲監管與創新之間存在權衡是一種謬誤。

1986年切爾諾比利核電站爆炸時,對於生活在烏克蘭北部附近的人們來說,這是一場災難。但這次事故對於全球推動核能作爲未來技術的行業來說也是一場災難。自那時以來,核反應堆的淨數量幾乎沒有成長,因爲核能被視爲不安全。那麼,如果今天人工智慧行業遭遇類似的事故,會發生什麼呢?

這個問題是在本週巴黎的AI行動峯會期間,由加州大學伯克利分校的電腦科學教授斯圖爾特•拉塞爾(Stuart Russell)提出的。他回答說,認爲安全和創新之間必須有權衡是一個謬誤。因此,那些對AI技術前景最感興趣的人仍然應該謹慎行事。他說:「沒有安全就沒有創新。」

拉塞爾的警告在巴黎得到了其他一些人工智慧專家的呼應。南安普頓大學(University of Southampton)網路科學研究所所長溫迪•霍爾(Wendy Hall)告訴我:「我們必須在全球範圍內達成最低安全標準的共識。在發生重大災難之前,我們需要制定這些標準。」

您已閱讀23%(400字),剩餘77%(1324字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×