【ITBEAR】在開源與閉源之爭持續發酵的背景下,開源無疑已成為推動大模型技術發展與生態繁榮的關鍵力量。大模型,這一曾被視為極度燒錢的技術領域,如今正因開源的浪潮而發生深刻變革。
以往,大模型的訓練成本高昂,如GPT-3的訓練費用據傳超過4600萬美元,使得大模型技術主要被資金雄厚的大廠和明星創業公司所掌握。然而,隨著llama、Mistral、Falcon等開源先鋒的涌現,這一格局被徹底打破。如今,缺乏AI積累的企業、中小團隊乃至個人開發者,都能基于開源底座模型,以低成本訓練并部署專屬模型。
在國內,受國際開源先鋒的影響,國產開源大模型也經歷了快速發展階段,涌現出如ChatGLM、Baichuan、DeepSeek、Qwen等一系列開源模型。尤為國產開源大模型在短短一年多時間內,已具備了與國際頂尖開源模型比肩的影響力,通義千問開源模型便是其中的佼佼者。
根據Hugging Face的數據,Qwen系列血緣模型數量已高達5萬多個,這意味著全世界的開發者基于Qwen系列底座,已經二次訓練出5萬多個衍生模型,數量僅次于Llama系列的7萬左右。這一數據成為了衡量模型生態影響力最有說服力的指標。
在2024云棲大會上,通義大模型再推全新開源系列Qwen2.5,其旗艦模型展現出屠榜式的強勁性能,吸引了海內外開發者和開源社區的廣泛關注。通義大模型如何在短短一年多時間內實現如此飛躍?這背后離不開其在性能與生態上的雙重發力。
Qwen2.5系列在性能上穩居全球開源第一,其旗艦模型Qwen2.5-72B在多個權威測評集中全面超越同尺寸開源模型,甚至“跨數量級”超越Llama3.1-405B模型。這一成就不僅代表了國產開源模型與美國最強開源模型的一次硬剛,也極大地降低了“天花板性能”模型的使用成本。
在生態建設方面,通義團隊注重生態兼容、開發者服務以及吸納研究界和開源社區的創意。他們積極與Hugging Face等開源社區合作,提升開發者體驗,并不斷優化模型文檔和代碼片段。這些努力使得通義大模型在開源屆成功躋身一流之列,比肩國際最強開源模型Llama。
截至2024年9月初,通義千問開源模型累計下載量已突破4000萬,衍生模型數量也超過5萬個,成為僅次于Llama的世界級模型群。這些數據充分展示了通義作為中國開源大模型的影響力。除了開源模型,通義也提供API服務,已服務了30多萬客戶,涉及千行百業。
通義大模型的開源之路,也是中國大模型追趕世界一線水平的縮影。開源的力量再次得到驗證,它不僅推動了新技術的快速發展,也為創新提供了無限可能。在未來,隨著大模型技術的不斷演進和生態的日益繁榮,我們有理由相信,通義大模型將繼續在全球開源社區中發揮重要作用。