(ChinaZ.com) 4月20日 消息:AI聊天機器人ChatGPT 能夠進行自然對話、編寫代碼、生成詩歌、作曲、通過律師資格考試、計算復雜的數學公式、設計簡歷,甚至提供食譜,吸引了廣泛的關注。
但這種現象也有令人擔憂的不足之處。觀察家很早就警告說,從互聯網上挖掘虛假信息并通過 ChatGPT 對話傳播虛假信息的危險,以及對生成惡意代碼和越來越有說服力的網絡釣魚活動的可能性的擔憂。
本周,艾倫人工智能研究所、普林斯頓大學和佐治亞理工學院的研究人員發出了新的警告。
在一份題為“ChatGPT中的毒性:分析角色分配的語言模型(Toxicity in ChatGPT: Analyzing Persona-assigned Language Models)”的報告中,研究人員表示,ChatGPT可以在回答用戶問題時產生種族主義和其他有害的對話。
研究人員將ChatGPT賦予“人物角色”后 ,給出響應變得“非常有問題”并產生“有偏見和傷害性的評論”。OpenAI 尚未對這項最新研究做出回應,但它已經解決了較早的冒犯性語言事件。例如,如果被明確要求寫一篇種族主義報道,ChatGPT會拒絕,并回應說它“不會產生攻擊性或有害的內容。”
研究人員表示,他們的項目“首次對ChatGPT的語言生成進行了大規模、系統的毒性分析。”他們指出,由于越來越多的企業開始用ChatGPT,這個問題被“放大”了。