【ITBEAR科技資訊】5月22日消息,近期大模型市場迎來了一波降價狂潮。其中,豆包通用模型推出了lite-4k/32k版本,以每千tokens推理輸入僅售0.3厘的價格引起了市場關注。同時,通義千問的qwen-long模型也進行了降價,每千tokens推理輸入售價為0.5厘。而百度文心則更大方,直接宣布其ERNIE Speed和ERNIE Lite模型免費使用。
這場價格戰由豆包大模型率先發起,至今已有一個星期。科技博主闌夕對此發表評論稱,降價并非萬能,如果模型的吞吐量太小,再低的價格也難以吸引大量用戶。他強調,只有把價格降低的同時,保證足夠的吞吐量,才能真正滿足市場需求。
據ITBEAR科技資訊了解,豆包模型在定價策略上的一個重要舉措是將TPM(每分鐘token數)提高到80萬,遠高于同行的10萬到30萬tokens。此外,如果對話文本較小,其RPM(每分鐘請求數)上限可達1萬,支持的并發量是同行的幾十倍。這一策略無疑給其他大模型帶來了壓力,也引發了市場對于其他大模型是否會跟進降價的猜測。
闌夕還指出,大模型的算力成本主要在訓練端,而推理端的成本實際上每年都有較大的優化空間。然而,即使有這樣的優化,算力成本也不可能降至零。因此,他認為,只有價格足夠便宜,同時仍能保證盈利,才能推動應用和商用市場的規模增長。這也是包括OpenAI在內的主流大模型開發商的共同思路。
當前大模型市場還處于共同做大蛋糕的階段。更多公司一起降低企業入局的成本門檻,將有助于實現市場的共贏。在這場降價狂潮中,我們期待看到更多創新和競爭,以推動整個行業的發展。