【ITBEAR科技資訊】4月10日消息,OpenAI今日聲明,已向開發者廣泛開放了其全新的GPT-4 Turbo with Vision模型,這一模型在繼承了GPT-4 Turbo系列的特點的同時,首次引入了視覺理解能力。
這一視覺增強的GPT-4 Turbo模型,不僅維持了原系列128,000個token的窗口大小和截止到2023年12月的知識庫,更融合了圖像識別技術,從而賦予了模型新的視覺分析能力。在此之前,開發人員通常需要分別調用不同的模型以處理文本和圖像數據,而現在,GPT-4 Turbo with Vision的出現打破了這一常規,它將文本和圖像處理功能整合到一起,不僅簡化了開發流程,而且為各類應用開辟了新的可能性。
據ITBEAR科技資訊了解,不少開發者已經開始利用這一新模型進行創新實踐。例如,名為Devin的AI軟件工程助手正使用該模型提升其編程輔助能力;而健康健身應用Healthify則通過它來分析用戶上傳的飲食照片,提供個性化的營養建議;創意平臺Make Real更是巧妙地運用GPT-4 Turbo with Vision,將手繪草圖轉化為實際可運行的網站代碼。
盡管這一強大功能目前還沒有被整合到ChatGPT中,也未向公眾開放,但OpenAI已暗示這一視覺增強的聊天功能不久后將在ChatGPT上亮相。