由人類或AI控制核武使用的決策權不是科幻情節,而是正在發生與討論的事。美國總統拜登與中國國家主席習近平,日前在秘魯首都利馬會談,雙方確認有必要加強國際合作,促進人工智慧向善普惠,並應維持由人類控制核武使用的決定。拜登和習近平在會談中,似乎隱隱指向未在場的美國總統當選人川普。川普在一月上任後,預期將對北京採取更強硬立場。例如,他曾表示,若中國大陸在其任內入侵台灣,他將不排除用對北京進行轟炸作為回應。
在核武決策情境中,AI可以即時評估對手的軍事行動、模擬衝突升級的可能性,並快速提供決策建議。在傳統的人類決策中,核武使用權限受到時間壓力、情緒波動及資訊不對稱影響,可能導致誤判或衝動行為。相比之下,AI不會因為情緒或偏見而做出判斷,使得它在理論上似乎更適合進行這種冷靜、理性且基於數據的決策。然而,AI的決策並非完美無瑕。它的結論高度依賴於訓練數據、算法設計及人類預設的價值體系。如果訓練數據中隱含偏差,或算法的優化目標未充分考慮倫理後果,AI的決策可能會產生不可預測的災難性結果。
教宗方濟各於今年六月在義大利G7峰會發言,談及人工智慧的機遇、危險和影響。他認為如果剝奪人們決定自己和生活的能力,使他們不得不依賴機器的選擇,那麼我們將把人類推向一個毫無希望的未來。AI應該以人類為中心,特別是在軍事領域。教宗指出,完全自主的武器系統可能引發不可預測的後果。致命性自主武器如果脫離人類的掌控,將對全球安全構成無法逆轉的威脅。AI的「迷人但令人畏懼」之處,正是其在提供高效解決方案的同時,也可能侵蝕人類對自身命運的主導權。
從技術層面來看,AI確實在決策效率與精準度有著卓越的優勢,但其侷限性同樣明顯。AI的核心運作依賴數據,而數據本質是冷冰冰的。它無法真正理解生命的價值,也無法對倫理困境做出道德判斷。核武決策的本質不僅是技術問題,更是關乎生命尊嚴與人類共同未來的倫理挑戰。對於AI而言,按演算法設計做出的選擇可能是最佳解方,但對人類而言,卻可能是最糟結果。
試想,若AI判斷一次小規模核攻擊能換取大規模和平,它是否能理解核武摧毀的不僅是物理實體上的城市,更是人類的尊嚴與未來?為防止AI技術進入失控境地,國際社會有必要加強合作,制定嚴格規範,確保AI技術發展始終服務於和平與人類福祉。
(作者是中華經濟研究院輔佐研究員)自由時報1121