日前,來自路透社的一則報道稱,Google AI部門要求其研究人員在人工智能的論文中給出“樂觀態度”的基調。
這主要來自對包括面孔、性感分析,以及性別、種族、意識形態等在內的敏感話題類的研究論文增加的一道審查,在此之前研究人員還需要先咨詢法律、政策和公司的公關部門。
該規定其中有一頁這樣寫道:“技術的進步和外部日益復雜的環境情況,導致看似有冒犯性的研究項目引發道德、聲譽、法律法規等問題。”
路透社稱,現無法確定詳細頒發日期,根據已知的三名現任員工給出的信息來看該規定始于今年6月。
此外,員工還被多次要求“不要以消極的態度闡述技術”。
比如,負責推薦算法論文的研究人員被告知“要格外小心,表現出積極的語氣”,該推薦算法主要用于對YouTube等平臺上的內容進行個性化推薦。最終,該作者采取的措施為“將論文中有關谷歌產品的所有引用全部刪除”。
路透社還寫道,另一篇有關語言理解算法的論文“淡化了對Google Translate這一產品出錯的引用”,進行修改是為了響應審核人員的要求。
一直以來,谷歌的標準審核過程旨在確保研究人員不會無意間泄露商業秘密,但“敏感類主題”的審核卻不僅僅限于此。目前來看,谷歌還希望評估自己的產品服務抹去偏見的基調,這些敏感類主題包括“國家、石油工業、位置數據、宗教和以色列”。
實際上,自從12月初AI倫理專家Timnit Gebru被解雇以來,這家搜索巨頭的動作一直備受關注。Gebru此前曾說,她因發送給Google AI研究人員內部小組Google Brain Women and Allies listserv的電子郵件而被終止。這封郵件中,她談到了谷歌經理敦促她撤回有關大規模語言處理模型危險性的論文。Google AI的掌門人Jeff Dean說,她在截止日期之前提交了這篇論文。不過,Gebru的團隊拒絕了這一主張,稱該規定存在“不公正、歧視性”。
據華盛頓郵報此前報道,Gebru于今年9月份與谷歌的公關和政策小組聯系。她知道公司可能會對研究的某些方面產生疑問,因為谷歌在搜索引擎中使用了大型語言處理模型。對該論文進行修改的截止日期是2021年1月,直到研究人員有足夠的時間來解決這些問題。
然而,感恩節前一周,Google Research副總裁Megan Kacholia要求Gebru收回論文。第二個月,Gebru被解雇了。
【來源:雷鋒網】