波多野结衣 蜜桃视频,国产在线精品露脸ponn,a v麻豆成人,AV在线免费小电影

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

(ChinaZ.com) 11月30日 消息:人工智能(AI)解決方案正面臨越來越多的審查,因為它們在帶來便利的同時,也存在著很多消極影響。更具體地說,AI傾向于暴露和加劇現有的社會偏見和不平等。因此,隨著AI的普及,倫理討論成為重點。

與道德相關的話題是信任。道德是我們做決定和采取行動的指導原則。這些行為準則反映了什么是正確和公平的核心信念。另一方面,信任反映了我們相信另一個人或公司是否可靠、正直,并且會按照我們期望的方式行事。

道德和信任是相互獨立的,也是相輔相成的。

那么,符合道德的AI解決方案天生就值得信任嗎?

AI,人工智能,機器人

環境是信任的決定因素

當然,不道德的制度會產生不信任。然而,道德體系并不一定是絕對可信的。更復雜的是,不信任一個系統并不意味著它不會被使用。

支撐人工智能解決方案的功能——機器學習、深度學習、計算機視覺和自然語言處理——與是否道德、值得信任是無關的,重要的是它們的應用環境。

例如,使用OpenAI最近發布的GPT-3文本生成器,利用AI用來撰寫社會評論或食譜,人工智能算法產生宣傳效應引發了擔憂。比如一個人工智能專家可以被用以傳播虛假信息,或者影響人類讀者的觀點,很多人通常沒有關注內容來源,這種情況既不道德,也不值得信任。

另一方面,如果一個廚師直接采用人工智能生成的食譜去做菜,而沒有關注機器生成的食譜所涉及的道德問題。在這種情況下,信任需要經過驗證。

AI,AR,人工智能

消費者信任具有主觀性

幾年前,國外調查公司SAS讓調查參與者評估他們在從醫療保健到零售等各種應用中使用人工智能的舒適度。但并未提供關于人工智能算法將如何訓練或預期如何執行的信息,等等。有趣的是,他們更信任人工智能來執行機器人手術,而不是人工智能來檢查他們的信用。最初的結果似乎與直覺相悖,畢竟手術是生死攸關的事情。

然而,影響信任的不僅是提議的應用程序,還有感知到的意圖。在醫學應用中,有德和不可信的。但是,一個完全沒有偏見的應用,公平地分配不利的信貸條款,也會招致懷疑。

類似地,用于確定非易腐庫存處置的人工智能算法也不太可能敲響任何道德警鐘。但是商店經理會遵從算法的建議嗎?這個問題的答案在于系統的結果與人類的目標有多接近。當人工智能應用程序建議的一個行為(例如,扔掉庫存)與員工的激勵機制(例如,最大化銷售——即使是打折)不一致時,會發生什么?在這種情況下,信任需要的不僅僅是合乎道德的人工智能,還需要調整經理的薪酬計劃。

AI, 人工智能

將道德與信任區分開來

最終,倫理可以決定一個給定的人工智能解決方案能否獲得成功。信任將決定它的采用和實現價值。

想要采用人工智能的組織有什么風險呢?根據研究機構Capgemini 2019年的一項研究,75%的消費者、員工和公民希望在人工智能提供的服務中增加透明度,并希望了解人工智能是否公平對待他們(73%)。他們會分享積極的體驗(61%),會更忠誠(59%),會從他們信任的公司那里購買更多產品(55%),他們相信這些公司會以道德和公平的方式運營人工智能。

另一方面,34%的人會停止與他們認為不值得信任的公司互動。再加上2020年5月的一項研究,不到三分之一(30%)的受訪者對企業使用人工智能與他們互動感到放心。領導者必須打造值得信賴和信任的人工智能系統和企業,而不是僅僅是滿足道德層面的需求。

一家成功的公司將需要一個策略來實現這兩者。

分享到:
標簽:人工智能 AI技術 人工智能技術
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定