1 月 17 日消息,美國當地時間周二,人工智能領域的佼佼者 OpenAI 在其博客上宣布,他們正在組建一個名為“集體對齊”(Collective Alignment)的全新團隊。
這個團隊主要由研究人員和工程師構成,將專注于設計和實施收集公眾意見的流程,以幫助訓練和塑造其人工智能模型的行為,從而解決潛在的偏見和其他問題。
OpenAI 在博客中闡述道:“我們的目標是打造一個系統,它能夠收集和‘編碼’公眾對我們模型行為的看法,并將這些寶貴的見解融入我們的產品和服務中。這樣一來,我們未來的人工智能模型就能更好地‘與人類價值觀保持一致’。”
為了實現這一目標,OpenAI 正積極招募來自不同技術背景的研究工程師加入這個新團隊。他們表示:“我們將與外部顧問和其他團隊緊密合作,包括開展試點工作,將原型整合到我們的模型中。我們需要來自不同領域的專家,共同助力這項工作的推進。”
這個“集體對齊”團隊其實是 OpenAI 去年 5 月啟動的公共項目的一個延伸。該項目旨在資助建立一個“民主程序”的實驗,以確定人工智能系統應遵循的規則。OpenAI 曾明確表示,該計劃旨在資助個人、團隊和組織開發概念驗證,以回答有關人工智能護欄和治理的問題。
研究工程師、OpenAI 新團隊創始成員泰納?埃倫杜(Tyna Eloundou)強調:“隨著我們不斷追求超級智能模型的發展,這些模型將逐漸成為我們社會不可或缺的一部分。因此,讓人們有機會直接提供意見至關重要。”
例如,為了確保只有人類才能參與投票和提供意見,OpenAI 還考慮與 Worldcoin 進行合作。Worldcoin 是 OpenAI 首席執行官薩姆?阿爾特曼(Sam Altman)創建的一個加密貨幣項目,它提供了一種有效區分人類和人工智能機器人的方法。
自 2022 年底推出 ChatGPT 以來,OpenAI 憑借其生成式人工智能技術吸引了公眾的廣泛關注。這種技術能夠利用簡單的提示生成文本,使 ChatGPT 成為有史以來增長最快的應用程序之一。
然而,人工智能技術的快速發展也引發了人們的擔憂。特別是其創造“深度偽造”圖片和其他錯誤信息的能力,讓人們在即將到來的 2024 年美國大選前夕感到不安。批評人士指出,像 ChatGPT 這樣的人工智能系統由于其輸入數據的影響而具有固有的偏見,用戶已經發現了一些人工智能軟件輸出中存在種族主義或性別歧視的例子。
在最新的博客文章中,OpenAI 回顧了資助受助者的工作成果,包括視頻聊天界面、人工智能模型眾包審計平臺以及“將信念映射到可用于微調模型行為的維度的方法”。同時,他們還公開了所有受助者工作中使用的代碼以及每個提案的簡要摘要。
盡管 OpenAI 試圖將該項目描述為與其商業利益無關,但考慮到其首席執行官阿爾特曼對歐盟人工智能監管的批評態度,這一說法似乎有些難以令人信服。阿爾特曼以及 OpenAI 總裁格雷格?布羅克曼(Greg Brockman)和首席科學家伊利亞?蘇茨凱弗(Ilya Sutskever)一再強調,人工智能的創新速度非???,以至于我們無法指望現有的權威機構能夠充分控制這項技術。因此,他們提出了將這項工作眾包的解決方案。
【來源:IT之家】