(ChinaZ.com) 8月16日消息:OpenAI 堅信其技術能夠幫助解決技術領域最困難的問題之一:大規模內容審核。OpenAI 聲稱,GPT-4 可以取代成千上萬名人工審核員,準確率幾乎相當且更加一致。如果這是真的,技術領域中最具有毒性和精神壓力的任務可以被外包給機器完成。
在今天發布的一篇博客文章中,OpenAI 聲稱已經在使用 GPT-4 來制定和完善自己的內容政策、標記內容和做出決策。OpenAI 安全系統負責人 Lilian Weng 告訴 Semafor 說:「我希望看到更多人以這種方式運營他們的信任、安全和審核工作。這是我們在如何利用人工智能解決對社會有益的真實問題上邁出的一大步。」
根據 OpenAI 的詳細介紹,這項技術依賴于通過一項指導 GPT-4 在進行審查判斷時的政策,并創建一個包含可能違反政策的內容示例的測試集。然后,政策專家會對這些示例進行標記,將每個沒有標簽的示例提供給 GPT-4,并觀察模型的標簽與他們的判斷是否相符,并從中改進政策。
OpenAI 在文章中寫道:「通過比較 GPT-4 的判斷和人類的判斷之間的差異,政策專家可以要求 GPT-4 解釋其標簽背后的推理過程,分析政策定義中的歧義,消除困惑,并相應地在政策中提供進一步的澄清。我們可以重復這些步驟,直到對政策質量滿意為止。」
與傳統的內容審核方法相比,OpenAI 認為有三個主要優勢。首先,它聲稱人們對政策的解釋各不相同,而機器在判斷上是一致的。這些審核指南可能長達一本書,而且經常變化。而人類需要大量培訓才能學習和適應,OpenAI 認為大型語言模型可以立即實施新的政策。
其次,據稱 GPT-4 可以在幾個小時內幫助制定新政策。起草、標記、收集反饋和完善的過程通常需要數周或幾個月的時間。第三,OpenAI 提到了持續接觸有害內容(如虐待兒童或酷刑視頻)的工人的福利問題。
在近 20 年的現代社交媒體和更多年的線上社區繁榮之后,內容審核仍然是在線平臺面臨的最困難的挑戰之一。Meta、Google 和 TikTok 依賴于大量人類審核員來查看可怕且經常造成心理創傷的內容。他們中的大多數位于發展中國家,工資較低,為外包公司工作,并且由于缺乏心理健康護理而面臨心理健康問題。
然而,OpenAI 本身也在很大程度上依賴點擊工作者和人工勞動。成千上萬的人,其中許多人來自肯尼亞等非洲國家,進行內容注解和標記。這些文本可能令人不安,工作壓力大,而報酬較低。
雖然 OpenAI 將其方法宣揚為新穎和革命性,但人工智能多年來一直被用于內容審核。馬克·扎克伯格對完美自動化系統的設想并沒有完全實現,但 Meta 使用算法來審核絕大部分有害和非法內容。YouTube 和 TikTok 等平臺也依賴類似的系統,因此 OpenAI 的技術可能會吸引那些沒有資源開發自己技術的小公司。
每個平臺都公開承認,在大規模內容審核方面完美是不可能的。無論是人還是機器都會犯錯,雖然錯誤的百分比可能很低,但仍然有數以百萬計的有害帖子會被漏過,同樣也會有許多無害內容被隱藏或刪除。
特別是在誤導、錯誤和具有攻擊性但并非非法的灰色領域,對于自動化系統來說是一個巨大的挑戰。即使是人類專家也很難對此類帖子進行標記,而機器經常出錯。
最后,OpenAI 可能有助于解決自己的技術加劇的問題。ChatGPT 等生成式人工智能或公司的圖像生成器 DALL-E 使得大規模制造虛假信息并在社交媒體上傳播變得更加容易。盡管 OpenAI 承諾使 ChatGPT 更加真實,但 GPT-4 仍然會生成與新聞相關的虛假信息和錯誤信息。
該公司在博客文章中寫道:「語言模型的判斷很容易受到訓練過程中可能引入模型的不良偏見的影響。」「與任何人工智能應用程序一樣,結果和輸出需要通過讓人類參與其中來仔細監控、驗證和完善。」