【ITBEAR】8月5日消息,隨著生成式人工智能技術(shù)的飛速發(fā)展,如OpenAI推出的ChatGPT等應(yīng)用,已經(jīng)在撰寫(xiě)郵件、設(shè)計(jì)文案、編程和翻譯等多個(gè)領(lǐng)域?yàn)橛脩籼峁┝藰O大的便利。然而,隨著這些技術(shù)的廣泛應(yīng)用,其潛在問(wèn)題也逐漸浮出水面。
近期,關(guān)于學(xué)生濫用生成式AI完成作業(yè)和論文的現(xiàn)象引發(fā)了社會(huì)的廣泛關(guān)注。更令人震驚的是,部分學(xué)術(shù)論文中也出現(xiàn)了來(lái)自生成式AI的內(nèi)容,這無(wú)疑對(duì)學(xué)術(shù)誠(chéng)信構(gòu)成了威脅。在此背景下,如何確保內(nèi)容的真實(shí)性和來(lái)源的可靠性成為了亟待解決的問(wèn)題。
據(jù)ITBEAR了解,為了應(yīng)對(duì)這一問(wèn)題,行業(yè)領(lǐng)軍企業(yè)OpenAI正在積極研發(fā)新的技術(shù)手段。據(jù)最新報(bào)道,OpenAI正在為ChatGPT測(cè)試一種文本水印技術(shù)。這種水印技術(shù)在檢測(cè)文本釋義等局部變化時(shí)展現(xiàn)出了高度的準(zhǔn)確性。盡管OpenAI尚未公開(kāi)這項(xiàng)技術(shù)的具體運(yùn)作方式,但業(yè)內(nèi)普遍猜測(cè),它可能是在生成的文本中嵌入隱藏的標(biāo)識(shí)符,以便于追蹤和驗(yàn)證內(nèi)容的來(lái)源。
然而,這項(xiàng)技術(shù)也面臨著諸多挑戰(zhàn)。一方面,當(dāng)文本經(jīng)過(guò)翻譯工具或其他模型的處理后,水印的識(shí)別可能會(huì)受到影響;另一方面,有研究表明,文本水印可能會(huì)對(duì)某些特定用戶群體,如使用ChatGPT作為寫(xiě)作輔助工具的非母語(yǔ)寫(xiě)作者產(chǎn)生影響。
除了文本水印技術(shù)外,OpenAI還在探索其他方法來(lái)確認(rèn)文本內(nèi)容的來(lái)源。例如,通過(guò)加密簽名的元數(shù)據(jù)來(lái)提供一種更可靠的方式來(lái)跟蹤文本的來(lái)源;同時(shí),他們也在研發(fā)檢測(cè)分類(lèi)器,這是一種利用AI技術(shù)來(lái)識(shí)別文本是否由OpenAI模型生成的工具。這些舉措旨在確保生成式AI技術(shù)的健康發(fā)展,并維護(hù)內(nèi)容的真實(shí)性和來(lái)源的可靠性。