日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:52003
  • 待審:43
  • 小程序:12
  • 文章:1047590
  • 會員:762

【ITBEAR科技資訊】4月28日消息,阿里巴巴最近公開宣布,他們已成功開源了Qwen1.5系列中的首個千億參數模型——Qwen1.5-110B。據稱,在基礎能力的評估測試中,該模型的表現足以媲美meta旗下的Llama3-70B模型,并且在Chat評估中也大放異彩,這包括了MT-Bench和Alpacaeval 2.0兩項基準測試。

這款Qwen1.5-110B模型沿用了Qwen1.5系列一貫的Transformer解碼器架構,并引入了分組查詢注意力(GQA)機制,使得模型在推理時更為高效。這款模型支持長達32K tokens的上下文長度,同時兼容多種語言,包括但不限于英語、中文、法語、西班牙語、德語、俄語、日語、韓語、越南語以及阿拉伯語。

阿里巴巴將Qwen1.5-110B與當前頂尖的語言模型meta-Llama3-70B和Mixtral-8x22B進行了詳盡的對比測試。測試結果顯示,新的110B模型在基礎能力上至少達到了Llama-3-70B模型的水平。阿里巴巴團隊指出,他們在這一模型中并未對預訓練方法進行大幅調整,因此性能的提升主要歸功于模型規模的擴大。

此外,阿里巴巴還在MT-Bench和Alpacaeval 2.0上對其進行了Chat評估。結果顯示,與之前發布的72B模型相比,110B模型在這兩個Chat模型基準評估中的表現顯著更佳。這一持續改善的評估結果表明,即便沒有大幅改變訓練方法,更強大、規模更大的基礎語言模型也能催生出更優秀的Chat模型。

據ITBEAR科技資訊了解,Qwen1.5-110B不僅是Qwen1.5系列中規模最大的模型,更是該系列首個參數超過1000億的模型。與最近發布的頂尖模型Llama-3-70B相比,其性能表現同樣出色,并且明顯優于先前的72B模型。這一突破性的進展無疑將為自然語言處理領域帶來新的可能性。

分享到:
標簽:阿里巴巴 開源 Qwen1
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 52003

    網站

  • 12

    小程序

  • 1047590

    文章

  • 762

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定