【ITBEAR科技資訊】7月26日消息,OpenAI首席執行官山姆?阿爾特曼(Sam Altman)今日在回應網友提問時透露,公司計劃在下周向ChatGPT Plus用戶開放Alpha版本的GPT-4o語音模式(Voice Mode)。這一新功能的推出將為用戶實現更為流暢、無縫的語音聊天體驗。
據ITBEAR科技資訊了解,GPT-4o是OpenAI最新推出的一款重要的人工智能模型,其特點在于能夠處理文本、視覺和音頻的端到端全新統一模型。這意味著,所有的輸入和輸出都將由同一個神經網絡進行處理,從而大大提高了處理效率和響應速度。首席技術官穆里?穆拉蒂(Muri Murati)在早前的演講中表示,由于GPT-4o是公司首個融合了所有這些模式的模型,因此在探索其功能及局限性方面,OpenAI仍處于初步階段。
原定于6月底邀請一小部分ChatGPT Plus用戶測試GPT-4o語音模式的計劃,因需進一步提高模型的內容檢測和拒絕能力而被推遲。此次,阿爾特曼的表態意味著這一創新功能即將與公眾見面。
此前公開的信息顯示,相較于GPT-3.5模型的平均語音反饋延遲為2.8秒,以及GPT-4模型的5.4秒延遲,GPT-4o有望極大地縮短這一延遲時間,使得語音交流更加流暢自然,近乎實現無縫對話。這無疑將為用戶帶來全新的交互體驗,同時也展示了OpenAI在人工智能領域的持續創新和領先地位。