波多野结衣 蜜桃视频,国产在线精品露脸ponn,a v麻豆成人,AV在线免费小电影

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

近日,一批匿名人士向OpenAI及其投資方微軟公司發起集體訴訟,指責被告方從互聯網上竊取和挪用了大量個人數據和信息來訓練AI工具。起訴書聲稱“OpenAI在用戶不知情的情況下,使用這些‘竊取’來的信息”。

再倒回前兩個月,“AI換臉”詐騙曾引起很大討論,據包頭警方消息,騙子通過智能AI換臉和擬聲技術,佯裝好友對福州某科技公司法人代表實施了詐騙,10分鐘內其被騙430萬元。

在火熱的AIGC浪潮下,技術帶來變革的同時,其陰暗面也越來越多被關注。

“人工智能就如同雙面人,既幫助好人,也幫助壞人。善用AI可以創造很好的功能,但如果不能做好安全管理,AI可以帶來危險。”在C3安全大會上,英普華亞太及日本區技術副總裁周達偉表示,在過去很注重的是遠程安全和應用安全,但在大模型的產業互聯網的時代,會更注重數據安全。

大模型背后的網絡安全

“去年年底到今年年初,生成式AI帶來了燈塔式的指引,從國家到所有的企業都在擁抱這次變革。”亞信安全首席研發官吳湘寧在大會上表示,大家都希望通過人工智能、大數據、區塊鏈、物聯網等技術來改變現狀。

但AI系統越來越大,本身的安全就是一個關鍵。亞信安全首席安全官徐業禮在采訪中表示,“這里面涉及到AI投毒,模型被篡改,包括AI系統本身有邊界防護端點防護的能力。”AI可以做壞事,也可能生成一些誤導的信息,此外大量使用AI,尤其是境外的AI可能導致數據的泄露,這都是非常大的風險和問題。

亞信安全終端安全產品總經理汪晨認為,一方面,AI技術可以幫助甄別出病毒軟件的DNA,即使他們進行了偽裝,也能識別出其是黑是白;但另一方面,因為AI需要通過大量數據訓練才能獲得能力,如果用黑客污染過的數據進行訓練,訓練出的模型就會存在漏洞。如何確保訓練數據的準確率和精準度,是目前面臨的新挑戰。

對于最近興起的AI換臉詐騙,徐業禮對第一財經表示,這屬于較為特別的網絡安全問題,絕大部分針對個人發生,換成高管的照片或者模擬高管的聲音錄制一段語音發給員工,要求匯款轉賬,這些情況防不勝防,且由于AIGC的出現,詐騙實施起來越來越簡單,成本極低。

徐業禮認為,對于一個管理較好的公司,這類詐騙絕大部分情況下不會發生,而主要發生在安全意識不強、匯款等流程極不完善的小規模企業。對于亞信這樣的網絡安全公司來說,一般也能通過郵件和公司的系統監測到商業詐騙郵件,對詐騙網站和釣魚網站進行識別檢測。

AI一直在安全領域有所應用。徐業禮介紹,在ChatGPT出現前的AI 1.0時代,亞信更多用AI做判斷,做分類和聚合,亞信早期產品很多引擎都大量使用AI技術,包括2018年開始的卷積神經網絡都用得很頻繁。

不過,如ChatGPT這樣的大模型是一個革命性的改變。ChatGPT事實上已經可以理解為過了圖靈測試的終極階段,達到了一般人的智能,如今AI行業也從1.0時代到了2.0時代,AI的功能越來越豐富,生成式AI能夠模仿人、復制安全專家的能力,加速系統的自動化運營。

吳湘寧介紹,在過去安全行業已經可以通過自然語言的識別,通過報警、日志發現關鍵的威脅點,形成威脅圖譜,但做威脅圖譜的解讀、寫威脅分析報告,還需要專門的運維人員或安全專家,但今天隨著大模型技術的發現,可以更容易把專家的知識和大模型進行結合,從而自動生成報告。

AI訓練面臨信息風險

在訓練大模型中,作為必備要素的數據還面臨著信息安全、來源確權等方面的挑戰。

除了OpenAI被起訴使用用戶數據進行用戶畫像或廣告推廣等商業用途,此前三星員工在與ChatGPT聊天過程中也發生過信息泄漏事故。

三星有員工要求聊天機器人檢查敏感數據庫源代碼是否有錯誤,此外還有員工要求ChatGPT幫助其優化代碼,以及將會議記錄輸入ChatGPT并要求它生成會議記錄。

騰訊安全天御研發工程師周維聰對第一財經記者表示,在三星的案例中信息已存在風險,大模型提供方理應在該環節具備審核攔截能力,提示用戶該環節中存在嚴重的泄露隱私風險。

周維聰表示,對于企業方,首先在技術層面可以對用戶隱私信息進行相應的提取。另外,如果用戶輸入的內容涉及隱私相關信息,技術側也可以鑒別出來,不會將這部分數據用于模型訓練或商業產品的能力打造上。

另外,周維聰表示,騰訊安全會提示合作方使用數據時,合法獲得經過用戶確權的數據,未經確權的數據不會被保存下來,“這是一個需要嚴格遵守的點。”

實際在現實生活中,除了經過確權的信息數據,更多的是廣泛分布于互聯網的分散的用戶數據信息,對于這部分信息的使用,周維聰對記者表示,平臺一般會以嚴格的技術規范數據合規流程,每一家廠商理應都在遵循這樣的流程。因為除了要確保數據經過用戶授權,也是因為數據一旦用于開發其他能力,有可能涉及人臉、聲紋等敏感信息,這類信息在合規流程上都會被嚴加控制與監管。“行業內部都會有這樣一個標準,只是目前還沒有達到通用化的程度。”周維聰表示。

騰訊安全內容風控產品經理李鎬澤對第一財經表示,AIGC的內容安全是一個全鏈路的問題,從模型訓練、標注、應用到應用之后的輿情監控各個環節都可能引入內容安全的風險,因此在應用AIGC大模型時,也應從全鏈路進行內容風控。其次從審校方面,也需要從連貫性、邏輯性等方面來保證數據質量,去除高風險內容。第三是版權方面的風險也需要警惕。

全鏈路也包括了事后階段。李鎬澤表示,事后階段是指在大模型產品上線、用戶使用之后,企業也應注重平臺輿情監測,相應減少或避免相關風險。

至于全鏈路中哪個環節目前遭遇的AI安全風險最為密集,李鎬澤對第一財經記者表示,問題的爆發主要伴隨業務的分布情況而發生,從AIGC場景來看,廠商目前主要集中于先訓練模型、再逐步投入應用的階段,因此爆發的問題主要在訓練與內容生成這兩個環節。

以OpenAI為警示,在具體政策法規尚未明確的情況下,企業在獲取數據進行大模型訓練時,也需走在嚴格的審核流程中。今年4月,根據《中華人民共和國網絡安全法》等法律法規,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》。《意見稿》指出,用于生成式人工智能產品的預訓練、優化訓練數據不含有侵犯知識產權的內容;數據包含個人信息的,應當征得個人信息主體同意或者符合法律、行政法規規定的其他情形。

李鎬澤對記者表示,《意見稿》的出臺比較及時地響應了當下火熱的AIGC發展趨勢,也給各個企業、包括想做AIGC大模型的企業提供了一些指引和機會,這是一個比較好的趨勢。

【來源:第一財經】

分享到:
標簽:三星 數據 模型 訓練 信息 生成 用戶 詐騙
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定