人工智慧

FT社評:歐盟AI倫理準備是個良好開端

確保AI儘可能地開放、建立在以往監管規定基礎之上、並以人類爲中心,是確保AI發展合乎倫理的最佳方式。

歐盟的人工智慧(AI)準則因設立了一個全球標準而受到稱讚。考慮到上週爆出的微軟(Microsoft)與中國一所軍隊大學在AI研究方面進行了合作的訊息,歐盟頒布這一套準則可謂正逢其時。歐盟的原則留下了一個懸而未決的問題,即如何判斷AI是否對社會有益。答案應該是對單個應用進行差別化的監管,而不是對所有AI採取籠統的監管方法。

關於以符合倫理的方式發展AI的策略並不新鮮,但歐盟委員會(European Commission)的準則值得注意。它調集了大量的專家,並建立在這樣一個理念的基礎上:AI既要尊重權利,又要足夠強大以避免無意的傷害。

與任何其他電腦系統一樣,「輸入的是垃圾,輸出的也是垃圾」這句格言也適用於AI。如果使用歷史數據對系統進行訓練,它們將重現歷史偏見。對抗或至少識別這種演算法偏見的最佳方法是提高AI系統的透明度和能力。法國政府分享許多演算法數據的做法,就是這些原則發揮作用的一個實例。

您已閱讀34%(398字),剩餘66%(783字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×