IT之家 10 月 18 日消息,微軟為了營造健康和諧的社區環境,減少圖片或文本中關于偏見、仇恨、暴力等相關的負面內容,于今年 5 月測試推出了 AI 內容審核工具 Azure AI Content Safety,該工具經過多月測試之后于今天正式發布。
IT之家注:Azure AI Content Safety 提供了一系列經過訓練的 AI 模型,能夠檢測圖片或文本中與偏見、仇恨、暴力等相關的負面內容,并可以理解并檢測包含八種語言的圖片或文本,為被標記的內容嚴重性進行打分,指示人工審核員哪些內容需要采取行動。
該內容審核工具最初整合到 Azure OpenAI 服務中,微軟現在以獨立系統方式正式推出。
微軟在官方博文中寫道:“這意味著客戶可以將其用于來自開源模型和其他公司模型的人工智能生成內容,以及調用部分用戶生成的內容,進一步擴展實用性”。
微軟表示,與其他同類型產品相比,該款產品在公正性和理解上下文方面有顯著改進,但該款產品仍需要依賴人工審核人員標記數據和內容。這意味著最終其公正性還是取決于人類。而在處理數據和內容時,人工審核人員可能帶著自己的偏見,因此依然無法做到完全中立審慎。