近日,科技界迎來了一項新的突破,谷歌公司正式推出了其最新一代的人工智能模型——PaliGemma 2。這款模型不僅具備圖像分析與描述生成的能力,還宣稱能夠識別圖像中人物的情感狀態(tài),這一消息迅速引起了業(yè)界的廣泛關注。
據(jù)悉,PaliGemma 2在情感識別技術上的實現(xiàn),離不開進一步的模型微調(diào)。然而,這一技術的問世,已經(jīng)引發(fā)了專家們的熱議與擔憂。多年來,眾多企業(yè)和研究機構一直致力于開發(fā)能夠檢測情感的AI技術,旨在將其應用于銷售培訓、事故預防等多個領域。谷歌方面表示,PaliGemma 2已經(jīng)經(jīng)過了廣泛的測試,并在人群偏見方面進行了評估,聲稱其在“毒性和粗俗程度”上的表現(xiàn)優(yōu)于行業(yè)基準。
盡管如此,谷歌并未公開完整的測試基準和具體的測試類型,僅透露了PaliGemma 2在FairFace數(shù)據(jù)集上的良好表現(xiàn)。然而,一些研究人員對FairFace作為偏見衡量標準提出了質(zhì)疑,認為該數(shù)據(jù)集的人種代表性有限,可能無法全面反映模型在情感識別上的真實表現(xiàn)。
情感識別技術一直以來都面臨著可靠性和偏見性的問題。以面部分析為例,近年來的研究表明,現(xiàn)有的系統(tǒng)往往對某些面部表情存在偏好,如更傾向于將微笑解讀為正面情感。部分情感分析模型還存在將黑人面部的情感解讀為負面,而對白人面部則較為正面的傾向,這進一步加劇了人們對情感識別技術公正性的擔憂。
對于谷歌公開發(fā)布PaliGemma 2的決定,專家們主要擔憂其潛在的濫用風險。如果將情感識別AI應用于執(zhí)法、招聘、邊境管理等高風險領域,可能會加劇對邊緣群體的歧視,甚至導致人們的情感狀態(tài)被錯誤解讀,從而引發(fā)不公平待遇。針對這些擔憂,谷歌回應稱,已經(jīng)對PaliGemma 2的倫理性和安全性進行了全面評估,涵蓋了兒童安全、內(nèi)容安全等多個方面,并承諾在發(fā)布前已經(jīng)進行了嚴格的測試。
然而,隨著AI技術的不斷發(fā)展,科幻作品中的場景正逐漸走向現(xiàn)實。如何防止技術濫用,確保其公正性和可靠性,已成為AI行業(yè)亟需解決的核心問題。谷歌作為科技巨頭,在推動技術創(chuàng)新的同時,也應承擔起相應的社會責任,從產(chǎn)品開發(fā)初期就全面考慮其可能帶來的社會影響,并在整個產(chǎn)品生命周期內(nèi)持續(xù)進行評估和改進。