未來人工智能(AI)在極端情況下會擁有和人一樣的道德判斷嗎?如果未來無人駕駛汽車要大量投入使用,必須為它確定社會普遍接受的道德標準才行。
英國《自然》雜志日前就發表了一項有關方面的人工智能研究:美國麻省理工學院(MIT)以" 在無法避免的事故中,無人駕駛汽車應如何作出決定拯救哪一方 "為調查內容做了項全球道德偏好調查。
該研究團隊搭建了一個名為 " 道德機器 " 的大型在線調查平臺,參與者可置身于一個不可避免的事故場景,事故中行人與乘客身處不同的危險中,參與者可選擇駕駛路線決定究竟救誰,該平臺總共記錄了約 4000 萬個參與者決定,該結果將用于為制定社會普遍接受的人工智能(AI)道德標準提供重要借鑒。
其中,研究人員將道德偏好給予分類,譬如救多數不救少數、救小孩不救老人、救人不救動物等,同時還發現了不同文化間的道德偏好差異:來自中美洲和南美洲國家、法國以及前法屬海外領地和現法屬領地的參與者,更偏向于先救女性和強壯個體;而來自收入差距較大國家的參與者在決定救誰時,一般會考慮其社會地位。
【來源:驅動之家】