AI教父領銜!全球逾850位科技專家聯合示警:「超智能」恐讓人類滅絕
圖、文/周刊王
當人工智慧(AI)技術正以驚人速度發展之際,全球逾850位科技領袖與專家聯署發表《關於超智能的聲明》(Statement on Superintelligence),呼籲暫停開發可能全面超越人類認知能力的「超智能」(Superintelligence)。

當人工智慧(AI)技術正以驚人速度發展之際,全球逾850位科技領袖與專家聯署發表《關於超智能的聲明》(Statement on Superintelligence),呼籲暫停開發可能全面超越人類認知能力的「超智能」(Superintelligence)。
據《CNBC》報導,這份於美東時間22日公布的聯署聲明,宛如科技界的「名人錄」,不僅有維珍集團(Virgin Group)創辦人布蘭森(Richard Branson)與蘋果公司(Apple)共同創辦人沃茲尼克(Steve Wozniak)等科技巨擘,更匯聚了被譽為「AI教父」、「深度學習教父」的電腦科學家班吉奧(Yoshua Bengio)與辛頓(Geoffrey Hinton),以及加州大學柏克萊分校(UC Berkeley)權威學者羅素(Stuart Russell)等人工智慧先驅。
這份跨領域聯署陣容堪稱罕見,除了科技界與學術界,還囊括美國跨黨派的前政要,包括:前參謀長聯席會議主席穆倫(Mike Mullen)、前國家安全顧問萊斯(Susan Rice),以及美國總統川普(Donald Trump)的媒體界盟友,像是川普1.0的白宮首席策略長兼總統顧問班農(Steve Bannon)、保守派政治評論家貝克(Glenn Beck)等。
與此同時,英國哈利王子(Prince Harry)與其妻梅根(Meghan Markle)、前愛爾蘭總統羅賓遜(Mary Robinson)亦名列其中。聯署名單至今仍在不斷增加。
「超智能」已成為當前人工智慧領域最炙手可熱的關鍵字。從全球首富馬斯克(Elon Musk)創立的「xAI」,到奧特曼(Sam Altman)領導的「OpenAI」,科技巨頭競相開發更先進的大型語言模型。臉書母公司Meta甚至直接將其大型語言模型部門,命名為「Meta超智能實驗室」(Meta Superintelligence Labs)。
然而,這波AI競速發展引發聯署專家的深切憂慮,聲明中指出超智能可能導致「人類經濟價值喪失、自主權剝奪、自由與公民權利淪陷、國家安全風險乃至人類滅絕等潛在危機。」
這份聲明主張,在達成2項關鍵前提前應禁止超智能的開發:首先是建立強有力的公眾支持,再來是形成科學界對安全建構與控制技術的共識。聯署網站特別指出,即便是馬斯克與奧特曼這類引領AI發展的企業領袖,過去亦曾公開警示超智能的危險性。
據悉,奧特曼曾在2015年尚未擔任OpenAI執行長時,便於部落格撰文直言「超人類機器智能(Superhuman Machine Intelligence,SMI)的發展可能是人類存續的最大威脅」;馬斯克今年初在播客節目中談及先進AI超越人類智能的風險時,更直言「人類毀滅的可能性約有20%。」
根據聲明引用的美國研究與推廣機構「生命未來研究所」(Future of Life Institute)的最新民調顯示,僅5%的美國成年人支持「當前快速且缺乏監管的」超智能發展現狀。這項針對2千名美國成年受訪者的調查顯示,多數民眾認為在證實安全可控前,不應創造「超人類人工智慧」,並強烈要求對先進AI實施嚴格監管。
聯署發起人班吉奧透過聲明指出,AI系統恐在數年內於大多數認知任務上超越多數人類。他強調這項突破雖有助解決全球性挑戰,但同時伴隨重大風險:「為安全邁向超智能,我們必須透過科學方法設計出根本無法傷害人類的AI系統,無論是由於錯位還是惡意使用。我們更需要確保公眾在形塑集體未來的決策中,擁有更大的發言權。」
如今,科技領域正逐漸形成「人工智慧末日論者」(AI doomers)與「人工智慧繁榮論者」(AI boomers)的對立觀點,前者視AI為需要嚴格監管的潛在威脅,後者則認為AI是值得無限制發展的積極力量。這場由科技先驅發起的倡議,不僅呼籲為當前如火如荼的AI競賽按下暫停鍵,更引發全球對科技發展倫理邊界的深刻思辨。