(ChinaZ.com) 8月16日消息:OpenAI 堅信其技術(shù)能夠幫助解決技術(shù)領(lǐng)域最困難的問題之一:大規(guī)模內(nèi)容審核。OpenAI 聲稱,GPT-4 可以取代成千上萬名人工審核員,準確率幾乎相當且更加一致。如果這是真的,技術(shù)領(lǐng)域中最具有毒性和精神壓力的任務(wù)可以被外包給機器完成。
在今天發(fā)布的一篇博客文章中,OpenAI 聲稱已經(jīng)在使用 GPT-4 來制定和完善自己的內(nèi)容政策、標記內(nèi)容和做出決策。OpenAI 安全系統(tǒng)負責(zé)人 Lilian Weng 告訴 Semafor 說:「我希望看到更多人以這種方式運營他們的信任、安全和審核工作。這是我們在如何利用人工智能解決對社會有益的真實問題上邁出的一大步。」
根據(jù) OpenAI 的詳細介紹,這項技術(shù)依賴于通過一項指導(dǎo) GPT-4 在進行審查判斷時的政策,并創(chuàng)建一個包含可能違反政策的內(nèi)容示例的測試集。然后,政策專家會對這些示例進行標記,將每個沒有標簽的示例提供給 GPT-4,并觀察模型的標簽與他們的判斷是否相符,并從中改進政策。
OpenAI 在文章中寫道:「通過比較 GPT-4 的判斷和人類的判斷之間的差異,政策專家可以要求 GPT-4 解釋其標簽背后的推理過程,分析政策定義中的歧義,消除困惑,并相應(yīng)地在政策中提供進一步的澄清。我們可以重復(fù)這些步驟,直到對政策質(zhì)量滿意為止。」
與傳統(tǒng)的內(nèi)容審核方法相比,OpenAI 認為有三個主要優(yōu)勢。首先,它聲稱人們對政策的解釋各不相同,而機器在判斷上是一致的。這些審核指南可能長達一本書,而且經(jīng)常變化。而人類需要大量培訓(xùn)才能學(xué)習(xí)和適應(yīng),OpenAI 認為大型語言模型可以立即實施新的政策。
其次,據(jù)稱 GPT-4 可以在幾個小時內(nèi)幫助制定新政策。起草、標記、收集反饋和完善的過程通常需要數(shù)周或幾個月的時間。第三,OpenAI 提到了持續(xù)接觸有害內(nèi)容(如虐待兒童或酷刑視頻)的工人的福利問題。
在近 20 年的現(xiàn)代社交媒體和更多年的線上社區(qū)繁榮之后,內(nèi)容審核仍然是在線平臺面臨的最困難的挑戰(zhàn)之一。Meta、Google 和 TikTok 依賴于大量人類審核員來查看可怕且經(jīng)常造成心理創(chuàng)傷的內(nèi)容。他們中的大多數(shù)位于發(fā)展中國家,工資較低,為外包公司工作,并且由于缺乏心理健康護理而面臨心理健康問題。
然而,OpenAI 本身也在很大程度上依賴點擊工作者和人工勞動。成千上萬的人,其中許多人來自肯尼亞等非洲國家,進行內(nèi)容注解和標記。這些文本可能令人不安,工作壓力大,而報酬較低。
雖然 OpenAI 將其方法宣揚為新穎和革命性,但人工智能多年來一直被用于內(nèi)容審核。馬克·扎克伯格對完美自動化系統(tǒng)的設(shè)想并沒有完全實現(xiàn),但 Meta 使用算法來審核絕大部分有害和非法內(nèi)容。YouTube 和 TikTok 等平臺也依賴類似的系統(tǒng),因此 OpenAI 的技術(shù)可能會吸引那些沒有資源開發(fā)自己技術(shù)的小公司。
每個平臺都公開承認,在大規(guī)模內(nèi)容審核方面完美是不可能的。無論是人還是機器都會犯錯,雖然錯誤的百分比可能很低,但仍然有數(shù)以百萬計的有害帖子會被漏過,同樣也會有許多無害內(nèi)容被隱藏或刪除。
特別是在誤導(dǎo)、錯誤和具有攻擊性但并非非法的灰色領(lǐng)域,對于自動化系統(tǒng)來說是一個巨大的挑戰(zhàn)。即使是人類專家也很難對此類帖子進行標記,而機器經(jīng)常出錯。
最后,OpenAI 可能有助于解決自己的技術(shù)加劇的問題。ChatGPT 等生成式人工智能或公司的圖像生成器 DALL-E 使得大規(guī)模制造虛假信息并在社交媒體上傳播變得更加容易。盡管 OpenAI 承諾使 ChatGPT 更加真實,但 GPT-4 仍然會生成與新聞相關(guān)的虛假信息和錯誤信息。
該公司在博客文章中寫道:「語言模型的判斷很容易受到訓(xùn)練過程中可能引入模型的不良偏見的影響。」「與任何人工智能應(yīng)用程序一樣,結(jié)果和輸出需要通過讓人類參與其中來仔細監(jiān)控、驗證和完善。」