【ITBEAR】近期,據(jù)外媒報道,OpenAI正秘密資助一項旨在預(yù)測人類道德判斷的算法研究。這一消息在科技界引發(fā)了廣泛討論。
據(jù)悉,OpenAI通過其非營利組織OpenAI Inc.,向杜克大學(xué)的研究團(tuán)隊提供了一筆高達(dá)100萬美元、為期三年的資助,用于探索道德人工智能的制造。該資助計劃被詳細(xì)記錄在提交給美國國稅局的文件中。
OpenAI的一位發(fā)言人證實了這一消息,并表示這是他們?yōu)橥苿尤斯ぶ悄艿赖掳l(fā)展所做出的努力之一。然而,關(guān)于這項研究的更多細(xì)節(jié),包括其具體目標(biāo)和進(jìn)展,目前仍處于保密狀態(tài),僅知該資助將于2025年結(jié)束。
杜克大學(xué)的實用倫理學(xué)教授Walter Sinnott-Armstrong是這項研究的首席研究員,但他拒絕透露更多信息。不過,據(jù)TechCrunch報道,Sinnott-Armstrong和他的同事Jana Borg已經(jīng)在相關(guān)領(lǐng)域取得了一些成果。他們曾出版了一本書,探討了人工智能作為道德指南的可能性,并創(chuàng)建了一種算法來幫助決定腎臟捐贈的接受者。
這項研究的重點是訓(xùn)練算法在涉及醫(yī)學(xué)、法律和商業(yè)等領(lǐng)域的道德沖突場景中預(yù)測人類的道德判斷。然而,這一任務(wù)面臨著巨大的挑戰(zhàn)。道德是一個復(fù)雜且主觀的概念,不同文化、宗教和哲學(xué)背景的人可能持有不同的道德觀念。
事實上,現(xiàn)代人工智能系統(tǒng)的工作原理是基于統(tǒng)計學(xué)的機(jī)器學(xué)習(xí)模型。它們通過訓(xùn)練大量數(shù)據(jù)來識別模式并進(jìn)行預(yù)測,但并不理解道德概念或道德決策背后的推理和情感。因此,人工智能往往會反映出訓(xùn)練數(shù)據(jù)中的偏見,尤其是那些支持西方受過教育和工業(yè)化國家價值觀的觀點。
例如,艾倫人工智能研究所開發(fā)的Ask Delphi工具就展示了這一點。雖然它能夠在一些基本的道德困境中做出正確的判斷,但一旦問題被稍微改寫或重新措辭,它就可能批準(zhǔn)幾乎任何事情,包括極端的道德錯誤。這凸顯了當(dāng)前人工智能在道德判斷方面的局限性。
OpenAI及其資助的研究人員正試圖克服這些挑戰(zhàn)。然而,由于道德的主觀性和復(fù)雜性,以及缺乏一個普遍適用的倫理框架,這一任務(wù)變得尤為艱巨。不同的哲學(xué)家和倫理學(xué)家可能持有不同的觀點,這使得預(yù)測人類道德判斷變得更加困難。
盡管如此,OpenAI仍然堅持認(rèn)為這項研究是有價值的。他們相信,通過不斷探索和改進(jìn)算法,我們可以逐步接近一個更加道德和公正的人工智能未來。然而,這一目標(biāo)的實現(xiàn)還需要時間和努力。