觀點人工智慧

人工智慧的失控風險

阿胡賈:可以想像,機器有可能獲得自做主張地塑造和控制未來的能力。發生這樣的劇變不需要任何蓄謀的惡意。

如果我揮舞著趕牛棒朝你走去,你剛開始可能會覺得搞笑。但如果我臉上掛著僵硬而癲狂的笑容朝你越走越近,你很可能會嚇得後退,心中充滿震驚、困惑和憤怒。當電極觸碰到肉體,可以想見,你會猛地往後縮,嘴上咒罵連連。

當你對一個人做了什麼事,對方會做出什麼反應往往是可以預測的。當今最智慧的機器卻不是這樣。AlphaGo是谷歌(Google)下屬的DeepMind開發出的電腦程式,它在圍棋對弈中擊敗世界最頂尖的棋手。但AlphaGo的創造者們承認,他們無法推測它會走出什麼勝招。這種不可預測性——同樣可見於Facebook的兩個聊天機器人,它們因爲發展出自己的語言而被關閉了——引起了人工智慧界的不安。

隨著我們邁入自主系統的時代、把更多決策工作交給人工智慧,技術專家們開始敦促我們要更深入地理解「輸入」(input)和「輸出」(output)之間的神祕地帶。上月在薩里大學(Surrey University)舉辦的一次會議上,來自巴斯大學(Bath University)的一個編程團隊提交了一篇論文,透露就連「設計者,要僅憑觀察來破譯他們所研發的機器人的行爲也有困難」。

您已閱讀31%(481字),剩餘69%(1081字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×