本月29號,一封由美國億萬富翁埃隆·馬斯克和千余名科學家聯名簽署的公開信,提出了對人工智能發展的擔憂。
他們在公開信中呼吁,所有人工智能實驗室暫停訓練比GPT-4更強大的AI系統至少六個月,以防止人工智能對人類的安全構成威脅。
他們認為,AI實驗室正在開發和部署越來越強大的數字思維,這種競爭逐漸失控,沒有人(包括它們的創造者在內)能理解、預測或可靠地控制它們,人工智能的失控可能對人類造成嚴重威脅。他們的呼吁得到了全球范圍內超過1000名科學家的支持。
馬斯克等千位科學家的行動與人類會的理念不謀而合。因此,這封公開信迅速得到了人類會創始人胡家奇的支持。他在一份聲明中號召分布在全球254個國家和地區的上千萬人類會的會員以及胡家奇的個人粉絲,支持馬斯克和約書亞·本吉奧等科學家的行動,并對這封公開信進行聲援。
作為一個長期關注科技和人類命運的人,胡家奇自1979年開始一直在呼吁停止科學技術非理性發展,至今已有四十余年。他認為,科學技術的非理性發展會帶來極端危害,必定很快滅絕人類。
為了阻止這種非理性發展帶來的極端危害,胡家奇創立了拯救人類行動組織(即人類會),致力于推動科技發展與人類福祉的平衡。人類會是一個擁有千萬會員和粉絲的非政府國際組織,致力于阻止科學技術的非理性發展,以避免其帶來的極端危害,甚至威脅人類的生存。胡家奇作為人類會的創始人,一直呼吁人們認識到科技非理性發展所帶來的風險,并提出了合理的防范措施。
在這個越來越依賴技術的時代,人工智能技術的發展速度越來越快,但是隨之而來的風險也越來越大。如果不及時采取行動,人類將面臨災難性的后果。
胡家奇認為,在技術和科學的快速發展下,我們必須思考它們的潛在風險,而不僅僅是追求其帶來的便利和進步。在人類滅絕的危機之前,一切的思考和擔憂都不多余。