商業快報

「模型崩潰」問題:缺乏人類數據限制人工智慧的進步

研究表明,使用電腦製造的「合成數據」來訓練頂級人工智慧模型可能會在未來導致荒謬的結果。

一項新的研究顯示,使用電腦生成的數據來訓練人工智慧模型有可能會加速其崩潰,從而產生毫無意義的結果,這項研究突顯了這一新興技術所面臨的挑戰。

包括OpenAI和微軟在內的領先人工智慧公司已經測試了「合成」數據的使用——人工智慧系統成立的資訊,也用於訓練大型語言模型(LLMs),它們已經達到了能夠改進尖端技術的人造材料的極限。

週三發表在《自然》雜誌上的研究表明,使用這些數據可能會導致人工智慧模型的快速退化。一個使用合成輸入文字的關於中世紀建築的試驗,在不到10代的輸出後就變成了關於大野兔的討論。

您已閱讀20%(248字),剩餘80%(973字)包含更多重要資訊,訂閱以繼續探索完整內容,並享受更多專屬服務。
版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。
設置字型大小×
最小
較小
默認
較大
最大
分享×