本文作者是史丹佛大學(Stanford University)網路政策中心(Cyber policy Center)國際政策主任、歐盟委員會(European Commission)特別顧問
幾乎每天都有關於如何監管人工智慧的新提議:研究機構、安全部門、模仿國際原子能總署(IAEA)打造「人工智慧領域的IAEA”……這個名單還在不斷變長。所有這些建議都反映出人們迫切希望做些什麼,即使對於應該「做些什麼」並沒有達成共識。當然,這個問題關係到很多方面,從就業和歧視到國家安全和民主。但是,鑑於政治領導人對人工智慧知之甚少,他們真的能制定出必要的政策嗎?
這並不是對政府人員知識空白的低級抨擊。就連技術專家也對大型語言模型(LLMs)的行爲模式抱有嚴重疑問。今年早些時候,紐約大學(NYU)教授薩姆•鮑曼(Sam Bowman)發表了《關於大型語言模型要知道的八件事》(Eight Things to Know about Large Language Models)一文,這篇令人瞠目結舌的文章揭示這些模型的行爲往往難以預測,專家們也沒有可靠的技術來指導它們。
您已閱讀27%(478字),剩餘73%(1293字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。