人工智慧

因果AI:人工智慧必須能夠解釋爲什麼做出某些決策

FT中文網現場報導2024年世界經濟論壇新領軍者年會(夏季達佛斯)專題《人工智慧助手能做什麼?》

「我們最終會進入這樣一個世界:99%的智慧由人工智慧提供,而1%的人類智慧將作爲人工智慧的後盾。那麼,1%的人類智慧需要專注於什麼領域?最有趣的領域是,我們如何利用這1%的人類智慧來監督代理。」causaLens創辦人兼執行長Darko Matovski在2024年世界經濟論壇新領軍者年會(夏季達佛斯)上表示,AI對人類社會更重要的影響在於改變公司和政府的決策方式,在這樣的世界中需要平衡AI和人類職責。

causaLens於2020年發佈了世界首個因果型人工智慧(因果型AI)。因果AI模型關注的是理解因果關係。因果AI模型通常需要設計實驗來驗證因果關係,更多地用於科學研究和決策支持。而GPT等大規模的深度學習模型從大量數據中得到學習和訓練,擅長處理和生成自然語言,能夠進行高質量的文字生成、翻譯、回答問題等任務。

例如,企業經營中會產出量化數據,讓LLM來理解這些數字就像讓一個英語博士去證明數學問題,LLM擅長的能力與任務並不匹配,而在量化數據和數字方面表現優異。Matovski指出,成立一個能夠理解數字、語言和視覺的多模態世界將會是真正的突破技術,因果模型能夠提供可靠的答案,LLM則能將結果以容易理解的自然語言呈現給用戶。

您已閱讀35%(519字),剩餘65%(985字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×