【ITBEAR】近期,據外媒報道,谷歌在提升其聊天機器人產品Gemini的性能方面遇到了挑戰。據內部人士透露,盡管公司投入了大量算力和訓練數據,但Gemini的性能提升并未達到預期速度,這一困境與OpenAI近期的遭遇頗為相似。
谷歌在AI領域的野心一直不小,特別是在算力資源方面擁有顯著優勢。然而,這種優勢并未能如愿轉化為Gemini模型性能的顯著提升。據報道,研究人員在投入更多數據和算力后,發現過去版本的Gemini大模型改進速度反而更快,這一現象引發了業內對scaling law(縮放定律)有效性的質疑。
scaling law曾被視為AI模型性能提升的“金鑰匙”,許多研究人員認為,只要使用更專業的AI芯片處理更多數據,模型就能以相同的速度不斷改進。然而,谷歌和OpenAI的遭遇表明,這兩個因素似乎并不足以解決所有問題。谷歌內部人士透露,公司在開發Gemini的過程中發現,用于訓練的數據中存在大量重復信息,這可能損害了模型的性能。
為了應對這一挑戰,谷歌正在重新考慮其數據處理策略,并在數據上加大投資。同時,公司還在加快模型的響應速度,這對于以谷歌的規模提供AI服務至關重要。谷歌還效仿OpenAI,在其Gemini部門內組建了一個團隊,致力于開發類似OpenAI推理模型的能力。
這個新團隊由DeepMind的首席研究科學家Jack Rae和前Character.AI聯合創始人Noam Shazeer領導,他們正在探索新的技術路徑,以彌補傳統scaling law在模型訓練階段導致的性能提升放緩問題。與此同時,開發Gemini的研究人員也在對模型進行手動改進,包括更改超參數,即決定模型如何處理信息的變量。
然而,谷歌在嘗試使用AI生成的數據(合成數據)以及音視頻作為Gemini的訓練數據時,并未取得顯著效果。這一結果再次凸顯了當前AI技術發展的瓶頸和挑戰。
隨著OpenAI和谷歌這兩大AI巨頭相繼遇到模型性能提升緩慢的問題,業內對AI技術未來發展的悲觀情緒開始蔓延。一些人擔心,如果技術瓶頸長期無法突破,可能會引發所謂的“AI泡沫”,即市場對AI技術的過度樂觀預期與實際技術進展之間的巨大差距。