作者 | 周愚
編輯 | 鄧詠儀
“我們必須對(duì)新興技術(shù)的風(fēng)險(xiǎn)保持清醒和警惕,這些風(fēng)險(xiǎn)可能會(huì)對(duì)我們的民主和價(jià)值觀構(gòu)成威脅。”
美國(guó)時(shí)間7月21日,美國(guó)總統(tǒng)拜登在講話中如此說道。當(dāng)天,白宮宣布,7家人工智能領(lǐng)域的巨頭經(jīng)過與白宮數(shù)月的磋商后,“自愿”做出一系列承諾,以應(yīng)對(duì)AI帶來的風(fēng)險(xiǎn)。
這7家公司包括google、微軟、Meta、OpenAI、亞馬遜、Anthropic和Inflection。
7家AI公司的代表在白宮,與美國(guó)總統(tǒng)拜登共同宣布承諾。來源:Getty Images
在實(shí)質(zhì)性的法律法規(guī)到來之前,拜登政府希望用“自愿承諾”的方式,實(shí)現(xiàn)人工智能技術(shù)安全、可靠和透明的發(fā)展目標(biāo)。白宮官員承認(rèn),目前沒有執(zhí)行機(jī)制來確保這些公司遵守承諾,但正在制定一項(xiàng)有關(guān)的行政命令。
隨著生成式AI的廣泛運(yùn)用,各類圖文、甚至音視頻的假消息開始泛濫,虛假信息傳播成為了人們對(duì)AI的一大擔(dān)憂。尤其是在美國(guó)2024大選前夕,這一議題受到了更多關(guān)注。
7家公司共同宣布,將開發(fā)例如水印系統(tǒng)的技術(shù),以確保用戶能夠分別人工智能生成的內(nèi)容。
此次,7家公司共同或部分做出的其他承諾還包括:
- 投資網(wǎng)絡(luò)安全和內(nèi)部威脅防護(hù)措施,以保護(hù)專有和未發(fā)布的模型權(quán)重;
- 促進(jìn)第三方發(fā)現(xiàn)和報(bào)告其人工智能模型中的漏洞;
- 公開報(bào)告其人工智能模型的能力、限制以及適當(dāng)和不適當(dāng)使用的領(lǐng)域;
- 優(yōu)先研究人工智能模型可能帶來的社會(huì)風(fēng)險(xiǎn),包括避免有害的偏見和歧視以及保護(hù)隱私;
- 開發(fā)和部署先進(jìn)的人工智能模型,以幫助解決社會(huì)面臨的最大挑戰(zhàn)。
在今年6月,歐盟專員蒂埃里·布雷頓訪問舊金山期間,就曾與OpenAI CEO奧特曼討論過人工智能生成內(nèi)容水印的問題。奧特曼當(dāng)時(shí)表示,“很樂意很快”展示OpenAI對(duì)水印的處理。
盡管拜登稱這些承諾是“真實(shí)而具體的”,但其中的許多項(xiàng)都有些模糊,缺乏具體執(zhí)行的細(xì)節(jié),反而更具象征意義。
例如,7家公司共同承諾,在行業(yè)內(nèi)及與政府、民間社會(huì)和學(xué)術(shù)界分享有關(guān)管理人工智能風(fēng)險(xiǎn)的信息。不過,如何確定風(fēng)險(xiǎn)信息的披露范圍、如何進(jìn)行披露都存在待商討的模糊地帶。
不同AI公司對(duì)于信息披露的態(tài)度也截然不同。Meta對(duì)于其AI模型的分享顯然更加開放,大部分模型均為開源,公開供所有人使用。然而,OpenAI在發(fā)布GPT-4時(shí)則稱,出于對(duì)競(jìng)爭(zhēng)和安全的考慮,拒絕公布模型的訓(xùn)練數(shù)據(jù)量和模型尺寸。
承諾中還指出,在發(fā)布AI模型之前,會(huì)對(duì)其進(jìn)行內(nèi)部和外部的安全測(cè)試。然而,這條承諾并沒有明確說明這些模型需要經(jīng)過什么測(cè)試,測(cè)試應(yīng)當(dāng)由什么機(jī)構(gòu)完成,測(cè)試的具體標(biāo)準(zhǔn)是怎樣的。
事實(shí)上,這些AI公司在發(fā)布模型之前,都宣稱已經(jīng)對(duì)其進(jìn)行了內(nèi)部的安全測(cè)試。不過,此次是這些公司首次集體承諾,允許外部專家對(duì)其模型進(jìn)行測(cè)試。