不久前亞馬遜推出AI工具“亞馬遜Q”,它的競爭對手是微軟Copilot。業界本來以為亞馬遜來勢洶洶,Q應該很不錯,但最新報告顯示,這款AI工具并不成熟,可能還沒有準備好。
Q到底有什么問題呢?The Platformer在報道中說,Q不夠精準,侵犯隱私,存在“幻覺”(相當于出錯),泄露數據。研究報告顯示,亞馬遜的大語言模型連接企業數據庫時極其不精準,也不夠透明。
亞馬遜新聞發言人回應稱,Q并沒有泄露過任何機密文件。該新聞發言人稱:“一些亞馬遜員工會通過內部渠道和系統分享信息,這在亞馬遜是標準操作。沒有證據顯示有什么安全問題是反饋的問題造成的。我們已經收集到所有的反饋意見,會繼續調校Q,它正在從預覽版產品變成公用產品。”
按照亞馬遜自己的說法,Q已經是無數人的工作伙伴,但報告卻認為Q還沒有為企業使用做好準備。
EIIRTrend & Pareekh咨詢公司CEO Pareekh Jain說:“如果出現‘幻覺’,在企業決策時就無法使用Q。如果只是個人使用或者獲取信息,用Q沒有什么問題,但在決策時不能用。”
亞馬遜Q需要更多測試
在亞馬遜生成式AI正式商用之前,可能還需要進行更多的測試。
Pareekh Jain說:“我覺得亞馬遜應該先用內部員工多做些測試。很明顯,亞馬遜正在做。沒有外部信息源提及當中的問題。有兩樣東西很重要,一是數據,二是算法。亞馬遜應該看看到底是數據問題還是算法問題。”
亞馬遜AWS已經積累了17年的數據。Q的定位很高,它的目標是成為企業“萬能工具”。從產業發展趨勢看,Q很重要,可能會影響亞馬遜的前途。
IDC高管Sharath Srinivasamurthy認為,對于消費者和企業用戶來說,“幻覺”并不會削弱AI的潛力,但進行更好的訓練仍然是至關重要的。
Sharath Srinivasamurthy說:“用更高質量的數據、更好的提示(用更精準的提示引導用戶,這些提示是模型容易理解的)訓練模型,用組織或者行業專用數據持續優化模型,出現可疑精況時增加人工檢查,亞馬遜可以從這些措施下手,讓新技術得到更好的應用。”
AI“幻覺”應該監管嗎?
AI出現“幻覺”,是不是應該加強監管?Greyhound Research公司CEO Sanchit Vir Gogia認為,監管可能適得其反。
Sanchit Vir Gogia說:“任何監管都有可能妨礙數據的交換和使用。就眼下來說,監管越少,行業會發展越好。監管少了,數據使用會更容易,更流暢。看看OpenAI的GPT,如果限定它應該抓取什么數據,不應該抓取什么數據,它可能不會騰飛。”
Sanchit Vir Gogia還認為,設定外部邊界可能不太可行,讓企業自己來設定邊界可能更好。他解釋說:“監管可能會有,但主要還是要讓企業自我監管。雖然監管和指導是必要的,但如何審計卻是麻煩所在。重點應該是打造負責任的AI,也就是說創造者可以向客戶解釋內在邏輯,它不能是一套黑盒系統。”
“新人”亞馬遜的AI之路還很長
分析師們認為亞馬遜應該加強內部測試,加強自我監管,從而打造更好的AI,這些看法當然沒錯,但將AI部署到企業是很復雜的,這點更加值得關注。亞馬遜需要解決這些挑戰,在AI領域它是新人,前方的路還很漫長。
Jain說:“在這一領域AWS實際上慢了一拍,領導者是微軟和谷歌。用戶有很高的預期,在聊天機器人及其它相關技術方面更是如此。”
亞馬遜AI出現“幻覺”并不稀奇,ChatGPT同樣存在許多問題,比如分不清真與假,有時會發表傷害人的言論,傳播虛假信息。可是亞馬遜剛剛入門,工作做得不好,這對它的AI業務會造成很大打擊。
面對質疑,亞馬遜新聞發言人盡力淡化問題。上周亞馬遜AWS主管Adam Selipsky接受采訪,當時記者曾說,蘋果、Verizon、Northrop Grumman年初時發布政策,禁止員工使用ChatGPT,主要是因為存在隱私、泄密擔心,記者問他對此有何看法,Adam Selipsky回答道:“比起消費聊天機器人,亞馬遜Q更安全、更重視隱私。”
但現在的報告證實,Adam Selipsky的說法經不起考驗。(小刀)