日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

隨著大模型掀起新一輪 AI 熱潮,人們開始思考:大模型的強(qiáng)大能力來源于什么?

當(dāng)前,大模型一直在由不斷增加的「大數(shù)據(jù)」來推動。「大模型 + 大數(shù)據(jù)」似乎已經(jīng)成為構(gòu)建模型的標(biāo)準(zhǔn)范式。但隨著模型規(guī)模和數(shù)據(jù)量的不斷增長,算力的需求會迅速膨脹。一些研究者嘗試探索新思路。

6 月,微軟發(fā)布了一篇題為《Textbooks Are All You Need》的論文,用規(guī)模僅為 7B token 的「教科書質(zhì)量」數(shù)據(jù)訓(xùn)練了一個 1.3B 參數(shù)的模型 ——phi-1。盡管在數(shù)據(jù)集和模型大小方面比競品模型小幾個數(shù)量級,但 phi-1 在 HumanEval 的 pass@1 上達(dá)到了 50.6% 的準(zhǔn)確率,在 MBPP 上達(dá)到了 55.5%。

phi-1 證明高質(zhì)量的「小數(shù)據(jù)」能夠讓模型具備良好的性能。最近,微軟又發(fā)表了論文《Textbooks Are All You Need II: phi-1.5 technical report》,對高質(zhì)量「小數(shù)據(jù)」的潛力做了進(jìn)一步研究。

論文地址:https://arxiv.org/abs/2309.05463

模型簡介

架構(gòu)

研究團(tuán)隊使用 phi-1 的研究方法,并將研究重點放在自然語言常識推理任務(wù)上,創(chuàng)建了擁有 1.3B 參數(shù)的 Transformer 架構(gòu)語言模型 phi-1.5。phi-1.5 的架構(gòu)與 phi-1 完全相同,有 24 層,32 個頭,每個頭的維度為 64,并使用旋轉(zhuǎn)維度為 32 的旋轉(zhuǎn)嵌入,上下文長度為 2048。

此外,該研究還使用 flash-attention 進(jìn)行訓(xùn)練加速,并使用 codegen-mono 的 tokenizer。

圖片

訓(xùn)練數(shù)據(jù)

phi-1.5 的訓(xùn)練數(shù)據(jù)是由 phi-1 的訓(xùn)練數(shù)據(jù)(7B token)和新創(chuàng)建的「教科書質(zhì)量」數(shù)據(jù)(大約 20B token)組成的。其中,新創(chuàng)建的「教科書質(zhì)量」數(shù)據(jù)旨在讓模型掌握常識推理,研究團(tuán)隊精心挑選了 20K 個主題來生成新數(shù)據(jù)。

值得注意的是,為了探討網(wǎng)絡(luò)數(shù)據(jù)(LLM 常用)的重要性,該研究還構(gòu)建了 phi-1.5-web-only 和 phi-1.5-web 兩個模型。

研究團(tuán)隊表示:創(chuàng)建強(qiáng)大且全面的數(shù)據(jù)集需要的不僅是原始計算能力,還需要復(fù)雜的迭代、有效的主題選擇,以及對知識的深入了解,具備這些要素,才能確保數(shù)據(jù)的質(zhì)量和多樣性。

實驗結(jié)果

對于語言理解任務(wù),該研究在多個數(shù)據(jù)集(包括 PIQA、Hellaswag、OpenbookQA、SQUAD 和 MMLU)上評估了一些模型。評估結(jié)果如下表 3 所示,phi-1.5 的性能可以媲美 5 倍大的模型:

圖片

在常識推理基準(zhǔn)上的測試結(jié)果如下表所示:

圖片

在更復(fù)雜的推理任務(wù)(例如小學(xué)數(shù)學(xué)和基礎(chǔ)編碼任務(wù))上 phi-1.5 還超越了大多數(shù) LLM:

圖片

研究團(tuán)隊認(rèn)為,phi-1.5 再次證明了高質(zhì)量「小數(shù)據(jù)」的力量。

圖片

質(zhì)疑與討論

或許是因為「大模型 + 大數(shù)據(jù)」的理念太深入人心,這項研究遭到了機(jī)器學(xué)習(xí)社區(qū)一些研究人員的質(zhì)疑,甚至有人懷疑 phi-1.5 直接在測試基準(zhǔn)數(shù)據(jù)集上訓(xùn)練了。

圖片

網(wǎng)友 Susan Zhang 進(jìn)行了一系列驗證,并指出:「phi-1.5 能夠?qū)?GSM8K 數(shù)據(jù)集中的原問題給出完全正確的回答,但只要稍微修改一下格式(例如換行),phi-1.5 就不會回答了。」

圖片

 

圖片

還有修改問題中的數(shù)據(jù),phi-1.5 在解答問題的過程中就會出現(xiàn)「幻覺」。例如,在一個點餐問題中,只修改了「披薩的價格」,phi-1.5 的解答就出現(xiàn)了錯誤。

圖片

 

圖片

并且,phi-1.5 似乎「記住了」最終答案,即使在修改數(shù)據(jù)的情況下該答案已經(jīng)是錯誤的。

對此,論文作者之一 Ronen Eldan 很快給出了回應(yīng),針對上述網(wǎng)友測試出現(xiàn)的問題給出解釋和反駁:

圖片

但該網(wǎng)友再次闡明其觀點:測試說明 phi-1.5 的回答對 prompt 的格式是非常「脆弱」的,并對作者的回應(yīng)提出質(zhì)疑:

圖片

論文第一作者 Yuanzhi Li 回應(yīng)道:「由于沒有進(jìn)行任何指令微調(diào)和對齊工作,phi-1.5 在穩(wěn)健性上的確不如 GPT-4。但『脆弱』并不是正確的術(shù)語,事實上,對于任何模型,pass@k 準(zhǔn)確率都會比 pass@1 高得多(所以模型正確就是偶然的)。」

圖片

看到這些質(zhì)疑與討論,網(wǎng)友們直呼:「最簡單的回應(yīng)方式就是直接公開合成數(shù)據(jù)集。」

圖片

對此,你怎么看?

分享到:
標(biāo)簽:數(shù)據(jù)
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨大挑戰(zhàn)2018-06-03

數(shù)獨一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運動步數(shù)有氧達(dá)人2018-06-03

記錄運動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定