人工智能領域的許多人都聽說過臭名昭著的機械土耳其人(Mechanical Turk)的故事。不是亞馬遜的眾包平臺,而是一臺建于 1770 年的國際象棋機器人,它下得非常好,以至于對手甚至相信它有著某種超自然的力量。但事實上,這臺機器內部有空間讓人躲在里面控制它。這個騙局持續了 84 年,整整三代人的時間。
(來源:STEPHANIE A.NETT/MITTR)
歷史上有很多人試圖給無生命物體注入生命的例子,也有人把黑客技術當作“魔法”出售的例子。但這種人類相信“機器擁有意識”的愿望從未成為現實。
在人工智能系統中創造意識是許多技術人員的夢想。大型語言模型是我們尋求智能機器的最新例子,一些人(有爭議地)聲稱,自己在與這些模型的對話中看到了意識的苗頭。
重點是:機器意識是一個爭論激烈的話題。許多專家表示,它注定永遠是科幻情節,但也有人認為它指日可待。
在《麻省理工科技評論》的一篇文章中,神經科學家格蕾絲·哈金斯(Grace Huckins)探討了人類的意識研究可以教會我們哪些有關人工智能的東西,以及人工智能意識可能會引發的道德問題。
格蕾絲寫道:“我們還沒有完全理解人類的意識,但神經科學家確實對它在大腦中的表現有一些線索。”顯而易見的是,人工智能系統沒有大腦,因此不可能使用傳統的方法來測量大腦活動。
但對于人工智能系統中的意識可能是什么樣子,神經科學家有各種不同的理論。一些人將其視為大腦“軟件”的一個特征,而另一些人則更直接地將其與物理硬件聯系在一起。
甚至有人試圖創建人工智能意識測試。美國佛羅里達大西洋大學未來心智中心主任蘇珊·施奈德(Susan Schneider)和美國普林斯頓大學物理學家埃德溫·特納(Edwin Turner)開發了一種智能體,該智能體訓練之前不會獲得任何與意識有關的信息。
這一步很重要,這樣它就不能像大型語言模型那樣,在訓練過程中捕捉到了如何模仿人類對意識的陳述。
然后,測試人員向人工智能提出問題,只有當它自己具備意識時,它才能回答上來。它能理解電影《怪誕星期五》的情節嗎?在這部電影中,一對母女互換身體,他們的意識與身體自我分離。
它能理解做夢的概念嗎?能講述它的夢嗎?它能想象出來轉世和死后嗎?
當然,這種測試并非萬無一失。它要求受試對象能夠使用語言,因此嬰兒和動物,這些明顯有意識的生物,無法通過測試。而基于語言的人工智能模型將在它們接受訓練的大量互聯網數據中,也會接觸到意識的概念。
那么,我們如何才能真正知道人工智能系統是否有意識呢?包括圖靈獎得主約書亞·本吉奧(Yoshua Bengio)在內的一群神經科學家、哲學家和人工智能研究人員發表了一份白皮書,根據不同領域的各種理論,提出了檢測人工智能意識的實用方法。
他們提出了一種考察標準,比如靈活地追求目標和與外部環境互動,這將表明人工智能擁有意識。當然,前提是這些理論成立的話。今天的系統尚未滿足任何標準,也不清楚它們是否有一天會滿足。
我們知道,大型語言模型非常善于預測句子中的下一個單詞應該是什么。它們也非常善于在事物之間建立聯系,有時會讓我們感到驚訝,并讓人容易相信這些計算機程序可能會產生微妙的東西。
但我們對人工智能語言模型的內部運作原理知之甚少。在我們進一步了解這些系統是如何以及為什么得出結論之前,或許這些模型的結果只能算是花哨的數學結果。
作者簡介:梅麗莎·海基萊(Melissa Heikkilä)是《麻省理工科技評論》的資深記者,她著重報道人工智能及其如何改變我們的社會。此前,她曾在 POLITICO 撰寫有關人工智能政策和政治的文章。她還曾在《經濟學人》工作,并曾擔任新聞主播。
支持:Ren