明敏 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
ChatGPT出新規(guī)了。
似乎是為了應對數據隱私方面的爭議,OpenAI最新blog宣布了ChatGPT數據使用的新規(guī)則:
用戶可以通過關閉聊天記錄功能,來避免自己的個人數據被官方拿去訓練。
現在在用戶個人管理中,已經出現了一個關閉“Chat history&training”的選項。
只要點擊取消,歷史記錄就被禁用了,新的對話也不會再存入聊天記錄里。
但新的對話還是會在官方系統(tǒng)里留存30天,OpenAI解釋說:
只有在監(jiān)控是否存在數據濫用時才會審查這些數據,30天后將永久刪除。
同時還上線了一個導出聊天記錄的Export功能,方便用戶自己保存數據。
同樣是出于數據保護方面的考慮,OpenAI還表示將推出ChatGPT企業(yè)版(ChatGPT Business)。
這種版本面向的是對數據保護有更高要求的用戶們,相關規(guī)則會和API用戶的一致,也就是數據完全不會被拿去訓練。
官方表示,預計這一版本將會在未來幾個月內上線。
網友:這不極限二選一?
如上提到的用戶數據被拿去訓練,是ChatGPT對話能力提升的途徑之一。
數據越多意味著模型能被訓練地越精準、聰明。
但它同樣牽扯到了用戶的隱私安全保護問題。OpenAI聲明他們不會濫用收集到的數據,可還是在全球范圍內引發(fā)了不小的擔憂。
由此這次用戶數據安全新規(guī)推出,不少人都點贊了。
表示這確實能在更大程度上保護個人隱私,同時又不會免費為新模型訓練提供數據。
還有一部分人想著“既要又要”:
為什么不能既保留聊天記錄,又不拿數據訓練?
也有人表示,自己之前就填寫了表單,表示不愿意被ChatGPT使用數據,那么現在這部分人會受到什么影響嗎?
官方表示他們還會尊重之前申請用戶的意愿,新的方法只是將關于訓練數據這個過程變得更簡單了些。
此前OpenAI開放了一個表單,供不愿意個人數據被拿去訓練的用戶填寫申請。
與此同時他們也提醒用戶,如果自己使用了一些插件/軟件惡意抓取用戶數據,新功能是干預不了的。
有人就發(fā)現當自己關閉數據訓練后,一些插件也消失了。這可能就是OpenAI為了避免數據在其他地方泄露采取的應對策略。
值得一提的是,這不是OpenAI第一次調整ChatGPT隱私數據使用規(guī)則了。
3月1日開始,所有調用API接口的用戶數據,將不再被用于模型訓練,除非用戶自愿提供。
在此之前,如果用戶沒有特殊要求,默認數據也是會被拿去訓練的。
調整后,API接口用戶發(fā)出的數據同樣會被放在系統(tǒng)內保存30天,應對一些監(jiān)測審查。
調用API后的數據傳輸是加密的,但數據都會在美國保存和處理。
歐洲成立ChatGPT特別工作組
OpenAI之所以在幾個月內頻繁地發(fā)布數據隱私方面的公告,主要原因或許還是ChatGPT的數據使用已經引發(fā)了不小恐慌。
最先“發(fā)難”的是意大利,他們以違反歐洲數據隱私法GDPR為由,暫時禁止了ChatGPT。該國監(jiān)管機構命令OpenAI停止從意大利客戶收集數據,并披露糾正該國獨立機構提出投訴的步驟。
之后德國、法國、西班牙等也傳出了或將加入這一陣營的消息。
4月13日,歐洲各國監(jiān)管機構表示已就ChatGPT成立了一個特別工作小組。這意味著制定人工智能隱私規(guī)范共同政策,或將邁出重要一步。
這種隱私數據方面的擔憂,不僅來自于OpenAI的數據收集使用方式,還有一部分原因是用戶導致的。
隨著越來越多人將ChatGPT加入工作流,上傳的數據中難免會夾帶公司機密。
有人就表示自己聽說有科技巨頭員工把產品代碼全上傳了。
所以,及時給員工制定ChatGPT使用規(guī)范,成為當下不少企業(yè)都在考慮的事。
比如三星就被傳出過因ChatGPT數據泄露的消息,軟銀、臺積電等企業(yè)目前也對員工使用ChatGPT提出了要求。
總之,在ChatGPT改變工作方式、改變世界的同時,制定出合理的數據隱私規(guī)范,也迫在眉睫了。
參考鏈接:
[1]https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt
[2]https://openai.com/policies/api-data-usage-policies
[3]https://www.reuters.com/technology/european-data-protection-board-discussing-ai-policy-thursday-meeting-2023-04-13/
[4]https://www.computerweekly.com/opinion/Could-your-employees-use-of-ChatGPT-put-you-in-breach-of-GDPR