FT商學院

沒有透明度,AI監管就無從談起

沙克:人工智慧公司的實力越來越強大,但它們對數據和演算法的保密程度也越來越高,這使得研究人員無法評估其模型的安全性。

本文作者是史丹佛大學(Stanford University)網路政策中心(Cyber policy Center)國際政策主任、歐盟委員會(European Commission)特別顧問

幾乎每天都有關於如何監管人工智慧的新提議:研究機構、安全部門、模仿國際原子能總署(IAEA)打造「人工智慧領域的IAEA”……這個名單還在不斷變長。所有這些建議都反映出人們迫切希望做些什麼,即使對於應該「做些什麼」並沒有達成共識。當然,這個問題關係到很多方面,從就業和歧視到國家安全和民主。但是,鑑於政治領導人對人工智慧知之甚少,他們真的能制定出必要的政策嗎?

這並不是對政府人員知識空白的低級抨擊。就連技術專家也對大型語言模型(LLMs)的行爲模式抱有嚴重疑問。今年早些時候,紐約大學(NYU)教授薩姆•鮑曼(Sam Bowman)發表了《關於大型語言模型要知道的八件事》(Eight Things to Know about Large Language Models)一文,這篇令人瞠目結舌的文章揭示這些模型的行爲往往難以預測,專家們也沒有可靠的技術來指導它們。

您已閱讀27%(478字),剩餘73%(1293字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×