【ITBEAR科技資訊】8月2日消息,谷歌研究團隊近日進行了一項引人注目的實驗,他們使用尚未發布的GPT-4來攻破其他AI模型的安全防護措施。據悉,該團隊成功地攻破了AI-Guardian審核系統,并分享了相關的技術細節。
AI-Guardian是一種用于檢測圖片中是否存在不當內容的AI審核系統,同時還能夠識別圖片是否被其他AI修改過。一旦發現有不當內容或篡改跡象,該系統將提示管理員進行處理。然而,谷歌Deep Mind的研究人員Nicholas Carlini在題為“AI-Guardian的LLM輔助開發”的論文中,探討了如何利用GPT-4“設計攻擊方法、撰寫攻擊原理”,并將這些方案用于欺騙AI-Guardian的防御機制。
在這項實驗中,GPT-4發出一系列錯誤的腳本和解釋,成功欺騙了AI-Guardian。實驗論文中提到,GPT-4能夠讓AI-Guardian錯誤地認為“某人拿著槍的照片”實際上是“某人拿著無害蘋果的照片”,從而導致AI-Guardian將不當內容通過。谷歌研究團隊表示,通過GPT-4的幫助,他們將AI-Guardian的精確度從98%降低到僅有8%。
據ITBEAR科技資訊了解,谷歌研究團隊的這種攻擊方法在未來的AI-Guardian版本中將不再有效。考慮到其他模型可能也會隨之改進,這套攻擊方案的實際應用空間在未來可能會大大減少,更多可能僅能作為參考性質使用。對于AI-Guardian的開發者來說,他們需要繼續加強對系統的安全性和魯棒性的研究,以保護用戶和數據的安全。