(ChinaZ.com) 11月30日 消息:人工智能(AI)解決方案正面臨越來越多的審查,因為它們在帶來便利的同時,也存在著很多消極影響。更具體地說,AI傾向于暴露和加劇現有的社會偏見和不平等。因此,隨著AI的普及,倫理討論成為重點。
與道德相關的話題是信任。道德是我們做決定和采取行動的指導原則。這些行為準則反映了什么是正確和公平的核心信念。另一方面,信任反映了我們相信另一個人或公司是否可靠、正直,并且會按照我們期望的方式行事。
道德和信任是相互獨立的,也是相輔相成的。
那么,符合道德的AI解決方案天生就值得信任嗎?
環境是信任的決定因素
當然,不道德的制度會產生不信任。然而,道德體系并不一定是絕對可信的。更復雜的是,不信任一個系統并不意味著它不會被使用。
支撐人工智能解決方案的功能——機器學習、深度學習、計算機視覺和自然語言處理——與是否道德、值得信任是無關的,重要的是它們的應用環境。
例如,使用OpenAI最近發布的GPT-3文本生成器,利用AI用來撰寫社會評論或食譜,人工智能算法產生宣傳效應引發了擔憂。比如一個人工智能專家可以被用以傳播虛假信息,或者影響人類讀者的觀點,很多人通常沒有關注內容來源,這種情況既不道德,也不值得信任。
另一方面,如果一個廚師直接采用人工智能生成的食譜去做菜,而沒有關注機器生成的食譜所涉及的道德問題。在這種情況下,信任需要經過驗證。
消費者信任具有主觀性
幾年前,國外調查公司SAS讓調查參與者評估他們在從醫療保健到零售等各種應用中使用人工智能的舒適度。但并未提供關于人工智能算法將如何訓練或預期如何執行的信息,等等。有趣的是,他們更信任人工智能來執行機器人手術,而不是人工智能來檢查他們的信用。最初的結果似乎與直覺相悖,畢竟手術是生死攸關的事情。
然而,影響信任的不僅是提議的應用程序,還有感知到的意圖。在醫學應用中,有德和不可信的。但是,一個完全沒有偏見的應用,公平地分配不利的信貸條款,也會招致懷疑。
類似地,用于確定非易腐庫存處置的人工智能算法也不太可能敲響任何道德警鐘。但是商店經理會遵從算法的建議嗎?這個問題的答案在于系統的結果與人類的目標有多接近。當人工智能應用程序建議的一個行為(例如,扔掉庫存)與員工的激勵機制(例如,最大化銷售——即使是打折)不一致時,會發生什么?在這種情況下,信任需要的不僅僅是合乎道德的人工智能,還需要調整經理的薪酬計劃。
將道德與信任區分開來
最終,倫理可以決定一個給定的人工智能解決方案能否獲得成功。信任將決定它的采用和實現價值。
想要采用人工智能的組織有什么風險呢?根據研究機構Capgemini 2019年的一項研究,75%的消費者、員工和公民希望在人工智能提供的服務中增加透明度,并希望了解人工智能是否公平對待他們(73%)。他們會分享積極的體驗(61%),會更忠誠(59%),會從他們信任的公司那里購買更多產品(55%),他們相信這些公司會以道德和公平的方式運營人工智能。
另一方面,34%的人會停止與他們認為不值得信任的公司互動。再加上2020年5月的一項研究,不到三分之一(30%)的受訪者對企業使用人工智能與他們互動感到放心。領導者必須打造值得信賴和信任的人工智能系統和企業,而不是僅僅是滿足道德層面的需求。
一家成功的公司將需要一個策略來實現這兩者。