【ITBEAR】9月17日消息,在人工智能領(lǐng)域,大型語言模型(LLM)已成為熱議的話題,然而,這一名稱是否真正貼切地描述了這類技術(shù)的實質(zhì),正引發(fā)業(yè)界廣泛的討論。
據(jù)ITBEAR了解,隨著LLM技術(shù)的不斷演進,其應(yīng)用范圍也在不斷擴大,從文本生成到圖像識別,甚至可能拓展到更廣泛的領(lǐng)域。這引發(fā)了關(guān)于LLM命名是否恰當(dāng)?shù)挠懻摗?/p>
同時,也有研究者提出不同的看法。OpenAI的研究者Clive Chan認為,從自回歸的角度來看,一切都可以被視為一種語言,因為任何事物都可以轉(zhuǎn)化為token流。
此外,meta的PyTorch研究者Horace He指出,即便在專注于LLM的應(yīng)用中,深度學(xué)習(xí)框架的通用性也是必要的,以適應(yīng)模型需求的不斷變化。
這場關(guān)于LLM命名的討論不僅反映了技術(shù)術(shù)語的普及與其實際應(yīng)用之間的影響關(guān)系,也揭示了公眾對于復(fù)雜技術(shù)理解上的挑戰(zhàn)。
關(guān)于大型語言模型是否應(yīng)該改名,業(yè)界和公眾的意見尚未統(tǒng)一。然而,隨著技術(shù)的不斷進步和應(yīng)用場景的拓展,一個更準(zhǔn)確、更全面的命名或許能夠更好地反映這項技術(shù)的核心價值和廣泛應(yīng)用。
#大型語言模型# #命名爭議# #AI技術(shù)# #自回歸Transformer# #token流模擬#