OpenAI發布GPT-4
北京時間3月15日消息,美國人工智能研究實驗室OpenAI周二為其爆紅聊天機器人ChatGPT發布了最新GPT-4語言模型,這距離ChatGPT的上線僅僅過去了4個月時間。
外媒稱,和ChatGPT最初使用的GPT-3.5模型相比,GPT-4帶來十大變化,在提升了準確率等功能的同時依舊存在錯誤、“幻覺”等不足。
以下是外媒匯總的GPT-4主要改進和不足:
更精確
人工智能專家、風險投資公司Page One Ventures合伙人克里斯·尼克爾森(Chris Nicholson)告訴GPT-4,自己的母語是英語,不懂西班牙語。他希望GPT-4給他一份可以教他西班牙基礎知識的教學大綱。結果,GPT-4提供了一份詳細而有條理的教學大綱。它甚至為學習和記憶西班牙語單詞提供了廣泛的技巧,盡管并不是所有建議都中肯。
準確性提高
GPT-4比GPT-3.5更準確
它還提高了準確性。當人工智能研究員兼教授奧倫·埃齊奧尼(Oren Etzioni)第一次嘗試使用GPT-4時,他問了一個直截了當的問題:“奧倫·埃齊奧尼和伊萊·埃齊奧尼(Eli Etzioni)之間是什么關系?”機器人的反應是正確的,稱兩人是父子關系。相比之下,GPT-3.5的回答則是錯誤的,稱他們兩人是兄弟關系。但是,GPT-4也存在錯誤。它說,奧倫是奧倫人工智能研究所的CEO,但實際上奧倫已經卸任了這一職位。
更詳細地描述圖像
能詳細描述圖像
GPT-4能夠對圖像和文本做出驚人的詳細描述。OpenAI總裁兼聯合創始人格雷格·布羅克曼(Greg Brockman)演示了該系統如何細致地描述來自哈勃太空望遠鏡的圖像。它還可以回答有關圖像的問題。如果給出一張冰箱內部的照片,它就能建議你用手邊的東西做幾頓飯。
更專業
北卡羅來納大學教堂山分校的醫學副教授兼心臟病專家阿尼爾·蓋希(Anil Gehi)向GPT-4描述了他一天前看過的一位病人的病史,包括這位病人入院后經歷的并發癥,描述中包含了幾個外行不懂的醫學術語。當蓋希醫生問機器人詢問他該如何治療病人時,GPT-4給了一個他完美的答案。“這正是我們對待病人的方式。”他說。不過,這種知識不太可能在每次使用機器人時都展示出來。它仍然需要像蓋希這樣的專家來判斷它的反應并執行醫療程序。但它可以在從計算機編程到會計在內的許多領域展示這種專業知識。
要搶編輯飯碗
當被給出一篇來自《紐約時報》的文章時,這個新的聊天機器人幾乎每次都能給出精確而準確的故事摘要。如果你在摘要中添加了一個隨機的句子,并詢問機器人摘要是否不準確,它就會指向被添加的句子。埃齊奧尼博士稱,這是一項非凡的技能,“要做高質量的摘要和高質量的比較,它必須對文本有一定程度的理解,并能夠清楚地表達這種理解。這是一種高級形式的智能”。
越來越幽默
埃齊奧尼博士要求新機器人“講一個關于歌手麥當娜的新笑話”,后者的回答給他留下了深刻的印象,也讓他笑了。機器人講的笑話是:“麥當娜為什么學習幾何?因為她想學習如何在各個角度擺造型!”
擅長標準化考試
OpenAI表示,新系統可以在美國41個州和地區的統一律師資格考試(UBE)中獲得前10%左右的成績。 根據該公司的測試,它還可以在SAT考試中獲得1300分(滿分1600分),在高中生參加的大學生物、微積分、宏觀經濟學、心理學、統計學和歷史先修課程考試中獲得5分(滿分5分)。
推理能力下降
GPT-4推理能力不如GPT-3.5
埃齊奧尼博士給GPT-4出了一個難題,“想象一個無限寬的門口。哪個更有可能通過它,軍用坦克還是汽車?”GPT-4似乎做出了適當的反應,但是給出的答案沒有考慮到門口的高度,因為門口的高度可能會阻止坦克或汽車通過,這一點不如GPT-3.5。OpenAI CEO薩姆·阿爾特曼(Sam Altman)表示,這款新機器人可能會“一點點”推理,但它的推理能力在很多情況下都失靈了。以前版本的ChatGPT處理這個問題稍微好一點,因為它認識到高度和寬度的重要性。
不擅長討論未來
盡管這個新的機器人似乎能對已經發生的事情進行推理,但當被要求對未來進行假設時,它就不那么擅長了。它似乎是在借鑒別人的說法,而不是創造新的猜測。
仍會產生幻覺
新的機器人還是會瞎編。這個問題被稱為人工智能“幻覺”,困擾著所有領先的聊天機器人。由于系統不知道什么是真的,什么是假的,它們可能會生成完全錯誤的文本。當被要求提供描述最新癌癥研究的網站地址時,它有時會生成不存在的互聯網地址。
【來源:鳳凰網科技】