【ITBEAR】8月5日消息,隨著生成式人工智能技術(shù)的飛速發(fā)展,如OpenAI推出的ChatGPT等應(yīng)用,已經(jīng)在撰寫郵件、設(shè)計文案、編程和翻譯等多個領(lǐng)域為用戶提供了極大的便利。然而,隨著這些技術(shù)的廣泛應(yīng)用,其潛在問題也逐漸浮出水面。
近期,關(guān)于學(xué)生濫用生成式AI完成作業(yè)和論文的現(xiàn)象引發(fā)了社會的廣泛關(guān)注。更令人震驚的是,部分學(xué)術(shù)論文中也出現(xiàn)了來自生成式AI的內(nèi)容,這無疑對學(xué)術(shù)誠信構(gòu)成了威脅。在此背景下,如何確保內(nèi)容的真實性和來源的可靠性成為了亟待解決的問題。
據(jù)ITBEAR了解,為了應(yīng)對這一問題,行業(yè)領(lǐng)軍企業(yè)OpenAI正在積極研發(fā)新的技術(shù)手段。據(jù)最新報道,OpenAI正在為ChatGPT測試一種文本水印技術(shù)。這種水印技術(shù)在檢測文本釋義等局部變化時展現(xiàn)出了高度的準(zhǔn)確性。盡管OpenAI尚未公開這項技術(shù)的具體運作方式,但業(yè)內(nèi)普遍猜測,它可能是在生成的文本中嵌入隱藏的標(biāo)識符,以便于追蹤和驗證內(nèi)容的來源。
然而,這項技術(shù)也面臨著諸多挑戰(zhàn)。一方面,當(dāng)文本經(jīng)過翻譯工具或其他模型的處理后,水印的識別可能會受到影響;另一方面,有研究表明,文本水印可能會對某些特定用戶群體,如使用ChatGPT作為寫作輔助工具的非母語寫作者產(chǎn)生影響。
除了文本水印技術(shù)外,OpenAI還在探索其他方法來確認(rèn)文本內(nèi)容的來源。例如,通過加密簽名的元數(shù)據(jù)來提供一種更可靠的方式來跟蹤文本的來源;同時,他們也在研發(fā)檢測分類器,這是一種利用AI技術(shù)來識別文本是否由OpenAI模型生成的工具。這些舉措旨在確保生成式AI技術(shù)的健康發(fā)展,并維護(hù)內(nèi)容的真實性和來源的可靠性。