
致:
各國領導人、聯合國祕書長、世界頂級科學家與學者、知名企業家、知名媒體人。
展信之時,ChatGPT、DeepSeek等生成式AI正以每秒數百萬次的交互席捲全球——它能撰寫文章、設計方案,甚至模擬人類思維,可當我們驚歎於生成式 AI的便捷時,是否意識到:這把“智能鑰匙”,已悄然打開了科技失控的新潘朵拉魔盒?
四十餘年來,我始終在為人類生存吶喊:從核武器擴散到基因編輯風險,從早期AI 倫理爭議到今日生成式AI的爆發,每一次科技躍進背後,都藏着“非理性發展”的致命陷阱。此前十一封公開信中,我曾懇請諸位正視“科技無節制發展將會很快致人類於滅絕”的危機,呼籲以人類大統一的治理力量約束高危技術。而今,生成式AI的普及速度與潛在風險,已遠超過往任何一項技術,若此刻仍不行動,我們或將會錯過守護人類生存的最後窗口期。
諸位當知,生成式AI的風險絕非“算法偏見”或“就業替代”這般簡單。它的“自主學習能力” 正突破人類預設邊界:有研究顯示,先進 AI模型可自行推導軍事技術原理,甚至生成誤導性信息操縱輿論;更令人憂心的是,全球已有超20個國家在祕密推進“AI武器化”研究,若任由國家間的技術競賽失控,無需百年,自主決策的AI武器、被惡意利用的生成式AI,或將成為毀滅人類的“無形利刃”。這不是危言聳聽——正如2007年我在第一封公開信中預警科技發展的整體風險,2015年呼籲防範AI自主意識,今日生成式AI的風險,顯得尤為具體而現實。
過往信件中我始終強調:人類需要科技,但需“有敬畏的科技”。生成式AI若缺乏全球統一的監管框架,它終將淪為少數國家爭奪霸權的武器、少數企業逐利的工具,而進一步的失控則必定是危及人類的整體生存。當前“各國自定規則”的治理現狀,恰是科技失控的根源——你若禁止高危 AI研發,他國卻加速推進;你若規範數據使用,跨境數據流卻無跡可尋。這種“囚徒困境”,與我幾十年來一直預警的科技整體風險,以及人們過去重點關注的核擴散風險如出一轍,而生成式AI的擴散速度,卻比核武器快百倍,而其隱蔽性則是強千倍。
因此,今日我再次以人類生存的名義懇請諸位:
第一,由聯合國牽頭,立即啟動全球生成式AI監管公約談判,匯聚科技專家、倫理學者與各國代表,明確禁止AI自主決策武器研發以及大規模輿論操縱 AI等高危應用。
第二,將生成式AI監管納入聯合國核心議題,在聯合國主導下建立AI安全測試全球中心,對各國AI產品進行統一安全認證,杜絕監管窪地帶來的風險外溢。
第三,以上兩點目前來看是當務之急,但是,在我看來也只是臨時性措施。要避免科技滅絕危機的根本之道是要實現全人類的大統一,採用世界政權的力量掌控科學技術。因此,要加速“人類大統一”的理念共識。懇請諸位,將“人類整體生存權”置於國家利益之上,置於企業利益之上,讓科技真正服務於人類,而非毀滅人類。
諸位領袖,四十多年來我從未因質疑而退縮,只因深知:人類的整體生存沒有“試錯機會”。生成式AI引發的熱議,恰是喚醒全球共識的契機——它讓普通人也意識到,科技風險並非遙遠的科幻,而是當下必須面對的現實。此前十一封信件中,已有諾貝爾學者響應、有國際組織關注、有企業主動參與監管,這證明“守護人類”的共識正在凝聚。
今日提筆,我已從四十多年前的少年變成了老人,但卻仍是那個為人類生存奔走的執著者,所求唯有:讓科技成為人類進步的階梯,而非滅絕的深淵;讓我們的子孫後代,能在理性的時代安心生活,而非在科技失控的恐懼中掙扎。
人類的整體生存高於一切!懇請諸位以行動回應使命,以共識守護未來——這不僅是對當下負責,更是對我們人類這一物種的嚴肅承諾。
人類會(原拯救人類行動組織)創始人
胡家奇
2025年12月10日
