【ITBEAR】阿里云通義大模型團隊近日宣布,已開源通義千問代碼模型全系列,涵蓋6種不同尺寸的Qwen2.5-Coder模型,這標志著該團隊在開源領(lǐng)域邁出了重要步伐。
此次開源的Qwen2.5-Coder系列包括從0.5B到32B的六個尺寸,且每個尺寸都提供了Base和Instruct兩種模型供開發(fā)者選擇。其中,Base模型適合進行微調(diào),而Instruct模型則可供開發(fā)者直接投入使用,大大提升了使用的便捷性。
除了3B模型采用Research Only許可外,其余模型均采用了Apache 2.0許可證,這一舉措無疑為開發(fā)者提供了更大的使用靈活性和便利。
在性能方面,32B尺寸的旗艦?zāi)P蚎wen2.5-Coder-32B-Instruct在多個基準評測中脫穎而出,取得了令人矚目的開源最佳成績,更被譽為全球最強開源代碼模型。該模型在代碼生成等核心能力上,甚至超越了知名的閉源模型GPT-4o。
據(jù)悉,Qwen2.5-Coder-32B-Instruct在evalPlus、LiveCodeBench、BigCodeBench等主流的代碼生成基準上,均刷新了開源模型的得分紀錄。同時,在九個基準評測中,該模型的表現(xiàn)均優(yōu)于GPT-4o,充分展示了其在代碼修復(fù)以及多編程語言支持方面的強大實力。
此次系列模型的推出,預(yù)計將極大提升AI編程的性能和效率,使得即便是編程初學(xué)者,也能輕松生成網(wǎng)站、數(shù)據(jù)圖表、簡歷、游戲等各類應(yīng)用。這無疑將進一步推動開源大模型在編程領(lǐng)域的廣泛應(yīng)用和深入發(fā)展。