(ChinaZ.com) 5月8日消息:OpenAI 此前成功安撫了意大利數據機構,解除了該國對 ChatGPT 的禁令,但其在與歐洲監管機構的斗爭仍遠未結束。
今年早些時候,OpenAI 備受爭議的 ChatGPT 聊天機器人遭遇了一個重大的法律障礙:在意大利被禁止。意大利數據保護機構(GPDP)指控 OpenAI 違反了歐盟的數據保護規定,該公司同意限制在解決問題的同時,限制該服務在意大利的訪問。4 月 28 日,ChatGPT 重回該國,OpenAI 輕描淡寫地解決了 GPDP 的擔憂,而未對其服務進行重大改變,這是一場明顯的勝利。
GPDP 表示歡迎 ChatGPT 所做出的變化。然而,該公司的法律問題——以及那些構建類似聊天機器人的公司的問題——可能僅僅是開始。多個國家的監管機構正在調查這些 AI 工具如何收集和生成信息,引用的關注點從公司收集未授權的訓練數據到聊天機器人傾向于散布誤導信息。在歐盟,他們適用的是《通用數據保護條例》(GDPR),這是全球最強的法律隱私框架之一,其影響可能遠遠超出歐洲。同時,歐盟的立法者正在制定一項專門針對 AI 的法律,很可能引領 ChatGPT 等系統的新時代法規。
ChatGPT 在誤導信息,版權和數據保護方面的各種問題,使其成為了眾矢之的。ChatGPT 是生成 AI 的最流行的例子之一,它是一個涵蓋根據用戶提示生成文本,圖像,視頻和音頻等工具的籠統總稱。據報道,在 2022 年 11 月推出后僅兩個月內達到每月 1 億活躍用戶,成為歷史上增長最快的消費者應用之一(OpenAI 從未確認這些數字)。人們使用它來將文本翻譯成不同的語言,寫文章和生成代碼。但批評者——包括監管機構——已經強調了 ChatGPT 不可靠的輸出,令人困惑的版權問題和不透明的數據保護做法。
意大利是第一個采取行動的國家。3 月 31 日,它指出了四種 OpenAI 違反 GDPR 的方式:允許 ChatGPT 提供不準確或誤導性信息,未通知用戶其數據收集做法,未滿足六種可能的個人數據處理法律正當理由,以及未適當地防止 13 歲以下的兒童使用該服務。GPDP 下令 OpenAI 立即停止使用在 ChatGPT 的訓練數據中收集的個人信息。
其他國家尚未采取任何行動。但是自 3 月以來,至少有三個歐盟國家(德國,法國和西班牙)對 ChatGPT 發起了自己的調查。與此同時,加拿大正在根據其《個人信息保護和電子文件法案》(PIPEDA)評估隱私問題。歐洲數據保護委員會(EDPB)甚至建立了一個專門的任務組,幫助協調調查。如果這些機構要求 OpenAI 進行更改,它們可能會影響該服務對全球用戶的運行。
監管機構的關注點可以被廣泛分為兩類:ChatGPT 的訓練數據來自何處以及 OpenAI 如何向其用戶提供信息。
ChatGPT 使用的是 OpenAI 的 GPT-3.5 和 GPT-4 大型語言模型(LLM),這些模型基于大量的人類產生的文本進行訓練。OpenAI 對使用的具體訓練文本持保密態度,但表示其依靠「各種許可,創造和公開可用的數據來源,其中可能包括公開可用的個人信息。」
這可能會在 GDPR 下帶來巨大的問題。該法律于 2018 年頒布,覆蓋從歐盟公民那里收集或處理數據的所有服務,無論負責該服務的組織所在何處。GDPR 規定,公司在收集個人數據之前必須取得明確同意,并為收集數據提供法律合理性,并透明地說明如何使用和存儲數據。
歐洲監管機構聲稱,圍繞 OpenAI 訓練數據的保密性意味著無法確認進入其中的個人信息是否最初是在用戶同意的情況下提供的,GPDP 特別指出,OpenAI 一開始就「沒有法律依據」收集這些信息。到目前為止,OpenAI 和其他公司幾乎沒有受到審查,但這一說法給未來的數據抓取工作增加了一個大問題。
此外,GDPR 的「被遺忘權」允許用戶要求公司糾正其個人信息或完全刪除它。OpenAI 預先更新了其隱私政策以促進這些要求,但在將特定數據分離成這些大型語言模型后,處理它們可能非常復雜,這引發了爭議。OpenAI 還直接從用戶處收集信息。與任何互聯網平臺一樣,它收集各種標準用戶數據(例如姓名,聯系信息,銀行卡詳細信息等)。但是,更重要的是,它記錄用戶與 ChatGPT 的交互。正如 FAQ 中所述,該數據可以由 OpenAI 的員工進行審核,并用于訓練其模型的未來版本。考慮到人們使用 ChatGPT 提問的親密問題——將機器人當作治療師或醫生使用——這意味著該公司正在收集各種敏感數據。
至少有一些數據可能是從未成年人那里收集的,因為 OpenAI 的政策規定「不會故意從 13 歲以下的兒童那里收集個人信息」,但沒有嚴格的年齡確認門檻。對于不允許從 13 歲以下的人那里收集數據,并且(在某些國家)要求 16 歲以下的未成年人獲得父母同意的歐盟規定來說,這并不是好的政策。在擔憂 ChatGPT 的未成年人篩選問題方面,GPDP 聲稱,ChatGPT 缺乏年齡過濾,會暴露未成年人接觸「完全不適合其成長和自我意識水平」的回答。OpenAI 在使用這些數據方面擁有廣泛的自由度,這讓一些監管機構感到擔憂,存儲數據也存在安全風險。像三星和 JPMorgan 這樣的公司已經禁止員工使用生成 AI 工具,因為他們擔心員工會上傳敏感數據。實際上,在 ChatGPT 遭受嚴重數據泄露,暴露用戶的聊天記錄和電子郵件地址后,意大利宣布禁用該應用。
ChatGPT 提供錯誤信息的傾向也可能會帶來問題。GDPR 法規規定所有個人數據必須準確無誤,這一點在 GPDP 的聲明中得到強調。這可能會對大多數 AI 文本生成器造成困擾,因為它們容易出現「幻覺」:即對問題作出事實不正確或不相關的回答。在其他地方已經看到這種現象帶來一些真實的后果,澳大利亞一個地區的市長因 ChatGPT 錯誤地聲稱他因貪污入獄而威脅起訴 OpenAI 誹謗他。ChatGPT 的廣泛應用和目前在 AI 市場上的主導地位使其成為一個特別有吸引力的目標,但它的競爭對手和合作伙伴,如擁有 Bard 的谷歌或 OpenAI 的 Azure AI,也可能面臨審查。在 ChatGPT 之前,意大利還禁止了聊天機器人平臺 Replika 收集未成年人信息,至今仍然被禁用。雖然 GDPR 是一套強大的法律,但它并不是為解決 AI 特定問題而制定的。然而,一些可以解決這些問題的規定可能已經在視野范圍內。
2021 年,歐盟提交了第一份《人工智能法》(AIA)的草案,這部立法將與 GDPR 一起制定。該法案根據人們對 AI 工具的風險評估對其進行管理,從「最小」(例如垃圾郵件過濾器)到「高」(用于執法或教育的 AI 工具)或「不可接受」,并因此被禁用(如社會信用體系)。在去年出現像 ChatGPT 這樣的大型語言模型的激增之后,立法者現在正在趕快增加「基礎模型」和「通用人工智能系統(GPAIs)」的規則——這是指包括 LLMs 在內的大規模 AI 系統——并有可能把它們歸為「高風險」服務。
AIA 的規定不僅超出了數據保護的范疇。最近提出的一項修正案將強制公司披露用于開發生成 AI 工具的任何版權材料。這可能會暴露曾經的機密數據集,使更多的公司容易受到侵權訴訟的攻擊,而這已經打擊了一些服務。
專門制定 AI 法規的法律可能要等到 2024 年才會在歐洲生效,但達成該法律可能需要一段時間。歐盟立法者于 4 月 27 日就 AI 法案達成了臨時協議。委員會將在 5 月 11 日對草案進行投票,最終提案預計在 6 月中旬公布。然后,歐洲理事會、議會和委員會將不得不解決任何懸而未決的爭議,然后才能實施該法律。如果一切順利,它可能會在 2024 年下半年被采納。
目前,意大利和 OpenAI 的爭議提供了一個早期的案例,展示了監管機構和 AI 公司如何進行談判。如果 OpenAI 在 9 月 30 日之前無法創建一個更嚴格的年齡門檻以防止 13 歲以下的未成年人進入,并要求年齡在 13 歲以上的未成年人獲得父母的同意,那么它可能會再次被封鎖。但這提供了一個示范,說明歐洲認為什么是一個合適的 AI 公司行為——至少在新法規發布之前是這樣。