致:
各國領導人、聯合國秘書長、頂級科學家與學者、知名企業家、知名媒體負責人。
尊敬的各位領袖:
我再次提筆,發出這一迄今為止的第九封公開信,在深感遺憾的同時,仍然帶有一絲希望。我研究并呼吁科學技術的非理性發展會很快滅絕人類的問題已經長達四十四年之久,從第一次致信人類領袖,至今也已超過十六年的時間。但是,看著這個世界仍然在原地踏步,我深感痛心。
當今世界,科技飛速發展,匪夷所思的新發明每天都在誕生。然而,正如我多次在以前的公開信中所提到的,科學技術發展到今天的高度,已經有了摧毀我們人類的潛力。我們必須盡快采取措施,否則會為時已晚。
許多科學家也已對此表達了深深的憂慮。繼千位科學家聯名發表公開信,呼吁暫停高層級AI實驗后,最近,超過350名頂級人工智能專家又聯名發表了公開信,要求降低人工智能帶來的滅絕風險,并將此問題與大流行病、核戰爭等其他大規模風險一同考慮。
這一警告并非空穴來風,科技的力量已經有可能超出我們的控制范圍,甚至可能會導致我們的自我滅絕。
盡管我已經多次發出警告,提出解決方案,但是很遺憾,我們的領袖們對此并未采取任何實質性的行動。我想強調的是,沒有什么問題比人類即將被科技滅絕的問題更重要。
因此,我在這里再次提出我的建議:實現人類的大統一,用世界政權的力量掌控科學技術,整體降低科學技術的層級。我們不能把人類置于懸崖邊緣,我們需要給人類足夠的剎車距離。現在是時候讓我們的人類領袖清醒,開始行動了。
我知道,要實現這個建議有相當的難度。然而,人類的整體生存高于一切,在面臨人類自身可能被毀滅的情況下,我們別無選擇。全球的科技風險必須由全球的努力來對抗。
我們的人類領袖需要站在更高的角度去審視和理解這個問題。科學技術的發展并非無止境,而是需要在人類理性的底線和限度內進行。我們不能允許無盡的科技進步以犧牲我們的生存為代價。人類歷史已經證明,無盡的進步并不總是帶來好的結果,相反,它可能會導致我們的毀滅。我們必須以更全面的視角來看待科技進步,了解其好處,但同時也不能忽視它可能帶來的風險和威脅。
作為地球上的主宰者,我們有責任、也有義務去保護我們的家園和我們的未來。這不僅僅是為了我們現在的人類,也是為了我們的子孫后代。我們必須明確我們的優先事項,那就是保護人類的生存和延續。
為此,我呼吁所有的人類領袖放下爭議,共同面對這一世界性的問題。我希望我們的領袖們能真正地認識到這個問題的嚴重性,并采取相應的行動。我再次呼吁你們,用你們的智慧和勇氣,做出正確的決定,采取必要的行動。人類的生存、幸福和發展取決于你們的選擇。
最后,我要說的是,沒有什么問題比人類即將被科技滅絕的問題更重要。我們的領袖們,是時候醒醒了,是時候開始行動了。我衷心希望,你們能聽到我的呼聲,能為人類的未來,做出正確和負責任的選擇。
拜托,我們的人類領袖,能不能有一點危機感?!
此致,敬禮。
拯救人類行動組織創始人
胡家奇
2023年6月20日