

普林斯頓大學和華威大學的這篇人工智能論文提出了一種新穎的人工智能方法,以增強法學碩士作為認知模型的實用性,這個方法能夠有效的校正大型語言模型 (LLM) 做出偏離理性規(guī)范的判斷和決策,下面我們來詳細了解一下普林斯頓大學提出的這種新穎的人工智能方法。
一、新人工智能方法的必要性
研究大型語言模型 (LLM) 的科學家發(fā)現(xiàn),LLM 在認知任務中的表現(xiàn)與人類相似,經(jīng)常做出偏離理性規(guī)范的判斷和決策,例如風險和損失規(guī)避。LLM 還表現(xiàn)出類似人類的偏見和錯誤,特別是在概率判斷和算術(shù)運算任務中。這些相似性表明,LLM 有可能被用作人類認知模型。然而,仍然存在重大挑戰(zhàn),包括 LLM 訓練所基于的大量數(shù)據(jù)以及這些行為相似性的來源不明。
由于幾個問題,LLM 是否適合作為人類認知模型存在爭議。LLM 是在比人類大得多的數(shù)據(jù)集上訓練的,并且可能已經(jīng)接觸過測試問題,從而通過價值調(diào)整過程人工增強了類似人類的行為。盡管存在這些挑戰(zhàn),但在人類選擇數(shù)據(jù)集上對 LLM(例如 LLaMA-1-65B 模型)進行微調(diào)可以提高預測人類行為的準確性。先前的研究也強調(diào)了合成數(shù)據(jù)集在增強 LLM 能力方面的重要性,特別是在算術(shù)等問題解決任務中。對此類數(shù)據(jù)集進行預訓練可以顯著提高預測人類決策的性能。
二、新人工智能方法的實現(xiàn)方式
普林斯頓大學和華威大學的研究人員建議通過以下方式增強 LLM 作為認知模型的實用性:(i) 利用 LLM 和理性代理必須掌握的計算等效任務來解決認知問題;(ii) 檢查 LLM 表現(xiàn)出類似人類行為所需的任務分布。Arithmetic-GPT 是一種在生態(tài)有效算術(shù)數(shù)據(jù)集上預訓練的 LLM,它應用于決策,特別是風險和跨期選擇,比許多傳統(tǒng)認知模型更能預測人類行為。這種預訓練足以使 LLM 與人類決策緊密結(jié)合。
研究人員通過定義數(shù)據(jù)生成算法來創(chuàng)建合成數(shù)據(jù)集并獲取對決策至關(guān)重要的神經(jīng)激活模式,解決了使用 LLM 作為認知模型的挑戰(zhàn)。一個具有生成預訓練變壓器 (GPT) 架構(gòu)的小型 LM,名為 Arithmetic-GPT,在算術(shù)任務上進行了預訓練。生成了反映實際概率和值的合成數(shù)據(jù)集以供訓練。預訓練細節(jié)包括上下文長度為 26、批處理大小為 2048 和學習率為 10?3。重新分析了風險和跨期選擇中的人類決策數(shù)據(jù)集,以評估模型的性能。
三、新人工智能方法的實驗結(jié)果及結(jié)論
實驗結(jié)果表明,在生態(tài)有效的合成數(shù)據(jù)集上進行預訓練的 Arithmetic-GPT 模型的嵌入最準確地預測了人類在決策任務中的選擇。與其他模型(包括 LLaMA-3-70bInstruct)相比,使用嵌入作為自變量、人類選擇概率作為因變量的邏輯回歸顯示出更高的調(diào)整 R2 值。針對行為模型和 MLP 的基準測試表明,雖然 MLP 通常優(yōu)于其他模型,但 Arithmetic-GPT 嵌入仍然與人類數(shù)據(jù)具有很強的對應性,尤其是在跨期選擇任務中。通過 10 倍交叉驗證確認了穩(wěn)健性。
研究得出的結(jié)論是,LLM(特別是在生態(tài)有效的合成數(shù)據(jù)集上進行預訓練的 Arithmetic-GPT)可以緊密模擬人類在決策任務中的認知行為,其表現(xiàn)優(yōu)于傳統(tǒng)認知模型和一些高級 LLM(如 LLaMA-3-70bInstruct)。這種方法通過使用合成數(shù)據(jù)集和神經(jīng)激活模式解決了關(guān)鍵挑戰(zhàn)。研究結(jié)果強調(diào)了 LLM 作為認知模型的潛力,為認知科學和機器學習提供了寶貴的見解,并通過廣泛的驗證技術(shù)驗證了其穩(wěn)健性。
以上就是普林斯頓大學提出了一種新穎的人工智能方法的相關(guān)內(nèi)容。如果您對美國留學感興趣,歡迎您在線咨詢托普仕留學老師(Tops6868)。托普仕留學專注美國TOP30名校申請,采用5v1服務模式,21步精細服務流程,硬性四維標準+六維背景提升等留學服務體系,為學生申請美國名校提供保障。