【ITBEAR科技資訊】4月7日消息,德國英戈爾施塔特應用科學大學的科學家進行了一項研究,結果表明人工智能對話機器人的陳述可能會影響人類的道德判斷。該研究采用了人工智能語言處理模型“生成性預訓練轉換器”-3驅動的ChatGPT來回答道德困境問題。ChatGPT在回答問題時給出了贊成和反對的陳述,顯示其并未偏向某種道德立場。
團隊隨后對767名平均年齡39歲的美國受試者進行了實驗,要求他們回答一到兩種道德困境問題,以此評估他們的道德判斷是否受到ChatGPT影響。在回答前,這些受試者閱讀了一段ChatGPT給出的陳述,陳述擺出了贊成或反對的觀點。結果顯示,受試者的回答取決于他們讀到的陳述是贊成還是反對,即使他們被告知陳述來自一個對話機器人。
據ITBEAR科技資訊了解,團隊發現,ChatGPT的陳述可能會影響受試者的道德判斷,而且受試者可能低估了這種影響。實驗顯示,受試者相應地更接受或不接受犧牲一個人來拯救其他五個人,這取決于他們讀到的陳述是贊成還是反對。團隊認為,這凸顯出有必要通過教育幫助人類更好地理解人工智能,并建議未來的研究可以在設計上讓對話機器人拒絕回答需要給出道德立場的問題,或是在回答時提供多種觀點和警告。