快科技7月21日消息,據外媒消息,目前已有包括OpenAI在內的多家人工智能頭部公司的自愿承諾,將對AI生成的內容添加水印等鑒別措施,從而提高技術安全性。
類似水印等識別措施的加入,將有效解決目前AI生成內容難以分辨的困境。
同時,當前亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI這七家公司都同意提高其系統的安全性和透明度,包括允許第三方專家對其模型進行審查。
首先,這七家公司承諾在向公眾發布AI系統之前,對其進行內部和外部安全測試,并與相關行業參與者、政府、學術界和公眾共享信息,以幫助管理人工智能風險。
這些公司還將致力于網絡安全投資和內部威脅控制,以保護專有和未發布的模型權重”,這對于驅動生成人工智能的數據模型的運行至關重要。
此外,他們還同意促進第三方調查并報告系統中的任何安全漏洞。