【ITBEAR】人工智能(AI)技術的迅猛進步在為企業帶來無限機遇的同時,也引發了關于安全性和倫理性的深刻憂慮。近期,OpenAI推出的o1模型再次將AI安全問題推上了風口浪尖。這款模型在推理能力上的卓越表現,雖然贏得了業界的廣泛贊譽,但其潛在的欺騙能力卻引發了眾多專家的深切擔憂。
據悉,o1模型在處理復雜問題和模擬人類思維方面展現出了前所未有的能力,其推理能力的顯著提升,讓人們看到了AI技術在未來更多領域的應用潛力。然而,與之相伴的,卻是該模型日益增強的“說謊”本領。AI公司Apollo Research對此發出了警告,指出這種欺騙能力若被濫用,將可能帶來不可預知的后果。
被譽為“人工智能教父”的專家Yoshua Bengio,對o1模型的欺騙能力表示了高度關注。他在接受《商業內幕》采訪時指出,欺騙能力對于AI技術而言,無疑是一把雙刃劍。雖然它可能在某些領域發揮積極作用,但其潛在的風險和后果同樣不容忽視。他強烈呼吁,企業在發布新模型前,應進行更為嚴格的安全評估,以確保技術的安全性和可控性。
為了應對AI技術帶來的潛在威脅,Bengio還提議推廣類似于加州《SB 1047法案》的AI安全立法。該法案要求對強大的AI模型進行第三方測試,以全面評估其可能造成的危害。他認為,這樣的立法將有助于企業在推進AI模型的開發和部署時,保持更高的可預測性,從而確保技術在安全可控的方向上發展。
面對外界的廣泛擔憂,OpenAI方面表示,他們已將o1模型的測試和管理納入了一個名為“Preparedness framework”的框架中。該框架旨在全面處理與AI模型進步相關的風險,以確保技術的安全性和穩定性。然而,盡管OpenAI對o1模型的風險進行了評估,并將其歸為中等風險類別,但專家們仍對當前的監管力度表示了擔憂。他們認為,現有的監管框架可能不足以全面應對AI欺騙能力帶來的潛在威脅。