download BusinessFocus app
「殺手機械人」恐失控,AI軍備競賽白熱化,如何面對AI武器的倫理問題與問責危機

「殺手機械人」恐失控,AI軍備競賽白熱化,如何面對AI武器的倫理問題與問責危機

Business News
By Neo Liu on 13 May 2025

人工智能(AI)武器已從科幻概念走入戰場現實。各國代表正於聯合國商討對策,試圖規範日益強大並已在多場衝突中應用的AI武器系統。然而,技術發展速度遠超監管,專家警告,若不加以有效控制,AI恐引發新型軍備競賽及嚴重的問責問題。從烏克蘭到加沙,AI在戰爭中的作用日益凸顯,預示著未來戰爭的重大變革。

專家警告:軍備競賽與問責危機迫在眉睫

AI武核心在於無須人類直接干預即可自主攻擊目標。這引發了兩大核心憂慮:軍備競賽與問責真空。

首先,軍備競賽風險加劇。AI被視為繼火藥、核武後的第三次軍事革命。主要軍事大國在AI武器領域的突破,將迫使他國加速研發,形成基於「安全困境」的惡性競爭。這不僅推高全球軍費,也可能因AI武器降低己方傷亡的特性,誘使決策者更輕易發動衝突。

其次,問責困境難解。若AI武器誤傷平民或攻擊受保護目標,責任歸屬將極其複雜:程式設計師、指揮官、製造商,還是AI本身?現行國際法規基於人類判斷與責任。「有意義的人類控制」是核心原則,要求人類在攻擊決策中掌握最終決定權。高度自主的AI武器挑戰此原則,一旦出錯,可能形成「問責真空」,侵蝕戰爭法根基。

實戰印記:AI武器在現代衝突中的應用

烏克蘭戰場,雙方廣泛使用具AI輔助功能的無人機,進行偵察、監視及精確打擊。部分系統能自主識別追蹤目標,甚至在通信受擾時執行攻擊。AI在處理戰場數據、優化攻擊路線及無人機「蜂群」協同作戰方面展現潛力。

加沙衝突中,以色列據報使用AI系統輔助識別軍事目標及武裝分子。儘管以方強調人類最終決策,但AI在目標篩選和建議中的作用,及其對決策速度和規模的影響,已引發對「有意義人類控制」的質疑。AI能快速處理海量情報,推薦打擊目標,改變了傳統作戰節奏。

此外,自殺式無人機在多地衝突中頻繁出現,其搭載的AI能力不斷增強,自主化程度日益提高。

這些實例表明,AI正提升戰爭決策速度、潛在攻擊精度,並推動無人化、智能化作戰趨勢,同時也帶來倫理、法律的嚴峻挑戰。

監管挑戰:全球治理步調緩慢

面對AI武器發展,國際監管進展緩慢。聯合國《特定常規武器公約》(CCW)下的「致命性自主武器系統政府專家組」(GGE on LAWS)是主要討論平台,但未達成具法律約束力的條約。

主要監管困境包括:

  1. 定義分歧:對「致命性自主武器系統」及「有意義的人類控制」缺乏統一、可操作的定義。
  2. 國家立場不一
    • 美、俄等軍事AI強國傾向認為現有國際法已足夠,反對新禁令或過嚴限制。
    • 中國對潛在風險表關切,主張規範,但方案仍在探索。
    • 非政府組織及部分中小國家則呼籲徹底禁止。
  3. 驗證困難:AI技術的軍民兩用性及算法「黑箱」問題,使透明度和監督機制難以建立。
  4. 技術迭代迅速:立法談判速度遠跟不上技術發展。

技術版圖:主要國家的AI軍事發展

  • 美國:在軍用AI研發投入居首,推動眾多前沿項目,如AI輔助指揮控制系統(Project Maven),致力將AI融入作戰各環節。
  • 中國:將AI列為國家戰略,在AI無人機、自主導航等領域進展迅速,目標成為AI領域的世界領導者。
  • 俄羅斯:重視AI軍事應用,已在實戰中測試帶有AI元素的機械人戰車和無人機,在特定軍事AI應用領域具備實力。
  • 其他國家:英國、法國、以色列、韓國、土耳其等亦積極發展軍用AI能力,如以色列的無人機和AI輔助情報分析,土耳其的Bayraktar系列無人機。

聯合國的討論關乎人類未來戰爭形態、倫理邊界和全球安全。AI武器的潛力與風險並存。若無有效全球治理框架,其後果難料。這需要各國政府的政治意願與遠見,以及科學界、產業和公眾的廣泛參與。在通往「智能戰爭」的十字路口,人類的抉擇至關重要,時間緊迫。

 

Text by BusinessFocus Editorial

免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。

【了解更多最快最新的財經、商業及創科資訊】

👉🏻 追蹤 WhatsApp 頻道 BusinessFocus

👉🏻 下載 BusinessFocus APP

👉🏻 立即Follow Instagram businessfocus.io

最新 金融投資熱話專頁 MarketFocus