(ChinaZ.com)8月16日 消息:OpenAI 正在努力解決大規(guī)模內(nèi)容審核的難題。他們聲稱,他們的 GPT-4技術(shù)可以取代成千上萬的人工審核員,并且準(zhǔn)確度幾乎相同,更加一致。如果這是真的,那么這個(gè)科技領(lǐng)域最困難、最費(fèi)腦力的任務(wù)可以被機(jī)器所接手。
OpenAI 在一篇博文中宣布,他們正在使用 GPT-4來開發(fā)和完善自己的內(nèi)容政策、標(biāo)記內(nèi)容和做出決策。OpenAI 安全系統(tǒng)負(fù)責(zé)人 Lilian Weng 表示:“我希望看到更多的人以這種方式來維護(hù)信任、安全和節(jié)制。” 這對(duì)于我們?nèi)绾卫萌斯ぶ悄軄斫鉀Q現(xiàn)實(shí)世界問題是一個(gè)非常好的進(jìn)步。與傳統(tǒng)的內(nèi)容審核方法相比,OpenAI 有三個(gè)優(yōu)勢(shì)。
首先,他們聲稱人們對(duì)政策的解釋存在差異,而機(jī)器的判斷是一致的。這些指導(dǎo)方針可能很長,而且經(jīng)常變化。雖然人類需要大量的培訓(xùn)來學(xué)習(xí)和適應(yīng),但 OpenAI 認(rèn)為大型語言模型可以立即實(shí)施新的策略。其次,據(jù)稱 GPT-4可以在幾小時(shí)內(nèi)幫助制定新的政策。起草、標(biāo)記、收集反饋和完善的過程通常需要幾周甚至幾個(gè)月的時(shí)間。第三,OpenAI 提到了那些接觸有害內(nèi)容的工人的福利,比如虐待兒童或酷刑視頻。
在近二十年的社交媒體和在線社區(qū)的發(fā)展中,內(nèi)容審核仍然是在線平臺(tái)面臨的最大挑戰(zhàn)之一。Meta、Google 和 TikTok 都依賴大量的版主,他們必須瀏覽可怕且經(jīng)常造成創(chuàng)傷的內(nèi)容。其中大多數(shù)位于工資較低的發(fā)展中國家,為外包公司工作,并且由于只接受最低限度的心理健康護(hù)理而面臨心理健康問題。
然而,OpenAI本身嚴(yán)重依賴于點(diǎn)擊工作者和人工工作。成千上萬的人,其中許多人來自肯尼亞等非洲國家,從事內(nèi)容注釋和標(biāo)記工作。這些文本可能令人不安,工作充滿壓力,而報(bào)酬卻很低。
雖然 OpenAI 聲稱他們的方法是新穎且革命性的,但多年來,人工智能一直被用于內(nèi)容審核。馬克?扎克伯格對(duì)完美自動(dòng)化系統(tǒng)的愿景尚未完全實(shí)現(xiàn),但 Meta 使用算法來控制絕大多數(shù)有害和非法內(nèi)容。YouTube 和 TikTok 等平臺(tái)依賴類似的系統(tǒng),因此 OpenAI 的技術(shù)可能會(huì)吸引那些沒有資源開發(fā)自己技術(shù)的小公司。
每個(gè)平臺(tái)都公開承認(rèn)大規(guī)模完美的內(nèi)容審核是不可能的。無論是人類還是機(jī)器都會(huì)犯錯(cuò)誤,盡管錯(cuò)誤的百分比可能很低,但仍然有數(shù)以百萬計(jì)的有害帖子被漏掉,還有許多無害的內(nèi)容被隱藏或刪除。特別是,對(duì)于那些具有誤導(dǎo)性、錯(cuò)誤性和攻擊性的內(nèi)容(不一定是非法的),自動(dòng)化系統(tǒng)面臨巨大挑戰(zhàn)。即使是人類專家也很難給這些帖子貼上標(biāo)簽,而機(jī)器也經(jīng)常出錯(cuò)。這同樣適用于記錄犯罪或警察暴行的諷刺或圖像和視頻。
最終,OpenAI 可能有助于解決他們自己技術(shù)所引發(fā)的問題。像 ChatGPT 這樣的生成式人工智能或該公司的圖像創(chuàng)建者 DALL-E 使得大規(guī)模創(chuàng)建錯(cuò)誤信息并在社交媒體上傳播變得更加容易。盡管 OpenAI 承諾讓 ChatGPT 更加客觀,但 GPT-4仍然會(huì)制造與新聞相關(guān)的虛假信息和錯(cuò)誤信息。