當地時間5月23日,微軟推出了一款由AI/ target=_blank class=infotextkey>人工智能(AI)驅動的內容審核服務型產品——Azure AI Content Safety(Azure AI內容安全服務),旨在營造更安全的網絡環境。據悉,這款產品提供了一系列經過訓練的AI模型,能檢測圖片或文本中與偏見、仇恨、暴力等相關的負面內容。
報道稱,這款產品將內置于Azure OpenAI服務中,向第三方開發者開放。據了解,Azure OpenAI服務是一項由微軟管理、以企業為中心的服務產品,旨在讓企業訪問AI實驗室OpenAI的技術并增加治理功能。值得一提的是,Azure AI內容安全服務不僅使用于Azure OpenAI服務中,還可以運用于游戲平臺、線上社區等非AI平臺。
↑資料圖據悉,Azure AI內容安全服務“精通”包括英語、西班牙語、德語、法語、中文、日語、葡萄牙語、意大利語在內的八種語言。也就是說,其可以理解并檢測包含這八種語言的圖片或文本,并為被標記的內容嚴重性進行打分,指示人工審核員哪些內容需要采取行動。
除此之外,據微軟發言人介紹,與此前的同類型相比,該款產品能更好地理解文本內容和文化背景,“此前的同類型產品無法捕捉上下文內容,可能造成標記內容失誤。”該發言人補充說:“我們有一個語言和公平專家團隊,他們致力于在考慮文化、語言和背景的情況下制定指導方針。”不過報道同時指出,微軟承認現在還沒有完美的AI,希望人類在使用AI的過程中對其進行完善。
報道指出,與所有AI審核程序面臨的問題一樣,Azure AI內容安全服務最終還是依賴人工審核人員標記數據和內容,這意味著最終其公正性還是取決于人類。報道稱,人工在處理數據和內容時,可能帶著自己的偏見,而這將是一個令人頭痛的問題。據悉,2015年,谷歌的AI圖像識別軟件曾將有色(黑)人種標記成猩猩,引發巨大爭議。美媒稱,八年過去了,現在的科技巨頭們仍擔心“重蹈覆轍”。
事實上,如何處理AI所帶來的風險一直是大眾和科技圈熱議的話題。就在本月22日,一張被認為是AI合成的關于“五角大樓附近發生爆炸”的假圖片在網絡上流傳,一時引發恐慌,美國防部發言人為此緊急辟謠。隨后,美媒分析稱,該圖像具有由AI生成的所有特征。而本月早些時候,OpenAI首席執行官山姆·阿爾特曼在美國參議院小組委員會聽證會上,呼吁政府對人工智能(AI)進行監管。他指出,如果這項技術出錯,會錯得很嚴重,會對世界造成重大傷害。
紅星新聞記者 黎謹睿
編輯 何先鋒 責編 李彬彬