2018年4月24日,蘭德公司在新發(fā)布的《人工智能對核戰(zhàn)爭風險的影響》報告中宣稱,人工智能到2040年有可能顛覆核威懾戰(zhàn)略的基礎。
該研究認為,雖然人工智能不可能創(chuàng)造“末日機器”,但人工智能對核安全的危害在于它鼓勵人類去冒險。
現(xiàn)如今,隨著人工智能技術的深度發(fā)展和飛速跨越,越來越多的領域開始被定義或是被重構。由核威懾維系的“恐怖平衡”自然也不例外。作為懸在世界各國頭上的“達摩克利斯之劍”,核武器的降生絕非一無是處,尤其是各軍事大國之間的核威懾的力量均勢在某種程度上而言,有效遏制了大規(guī)模世界戰(zhàn)爭的爆發(fā)。
不過眼下,這種均衡或?qū)㈦S著人工智能的演變迭代而逐漸被打破。原先核大國倚仗核軍備和核戰(zhàn)爭威脅,迫使敵方因面臨可能導致無法承受的報復而不敢貿(mào)然發(fā)動戰(zhàn)爭借以實現(xiàn)本國的戰(zhàn)略目標的“威懾”戰(zhàn)略,以核報復力量為后盾,以可能采取敵對行動一方的大城市中心或軍事基地為攻擊目標進行恫嚇,從而可以僅僅只承擔最小的戰(zhàn)爭風險,收獲最大的威懾效果。
在這個時期,斗爭雙方都處于這種微妙的和平狀態(tài)。他們必須讓對手相信,光靠先發(fā)制人絕對打不贏核戰(zhàn)爭。這就需要不斷制造比對方更多的核彈,以確保自己在遭受核彈攻擊時仍有反擊的余地。雙方都擁有大量的核子武器,存放在不同的地點。一旦直接沖突,可能導致全人類毀滅,因此雙方都盡力避免發(fā)生全面的“熱戰(zhàn)”。
時至今日,雙方的龐大的核武庫仍舊存在,不管其有效性如何,對彼此乃至全人類都是巨大的威脅。
現(xiàn)今,隨著國際關系中波譎云詭的變化日益增多,地緣政治博弈往往建立在一個由多國介入的不確定、不穩(wěn)定前提上,戰(zhàn)略家們在對沖突進行評估,明確可以采取的方案和可能產(chǎn)生的后果的過程中,將更多依賴于人工智能的分析和決策。而在目前的大多數(shù)情況下,人工智能往往可能比人類更容易出錯。諸如在對較為復雜的沖突局勢進行預判或者分析的過程中,當敵方嘗試干擾或欺騙人工智能系統(tǒng)時,人工智能將會得出錯誤的結論,甚至發(fā)出錯誤的指令。這不僅導致未來由人工智能主導的國際關系分析將會出現(xiàn)更多的不確定性和極端性,致使“讓機器幫助世界避免核戰(zhàn)爭”的美好愿景落空,同時也將導致核威懾構建的相對平衡失去調(diào)控。
再加上,在如今的大數(shù)據(jù)環(huán)境下,原本具有不確定性、不透明性的國家意志與戰(zhàn)略考量等主觀因素,將能夠通過人工智能,在深度學習算法中以量化的形式加以展示。國與國之間的核試探、威懾乃至最后的抉擇都將被人工智能在充足的數(shù)據(jù)分析后“再定義”。擁有人工智能技術的一方將具有清晰評估對方進行核反擊的可能性及破壞性的能力,從而擁有更加靈活有效的戰(zhàn)略選項。而技術相對落后的一方,其核反擊能力在數(shù)據(jù)的佐證中將變得不再具有可信性。行為體之間的軍事力量差距將因為人工智能技術水平的提高而逐漸明晰,傳統(tǒng)的“相互威懾”的國際安全體系將變得不再穩(wěn)定。
此外,隨著各型傳感器的數(shù)量在世界范圍內(nèi)不斷增加,人工智能根據(jù)不同來源的信息進行分析、預判的能力不斷增強,處于信息劣勢的一方將可能會對本國核導彈和核潛艇是否更容易遭受精準打擊而深感擔憂。而處于信息優(yōu)勢一方則往往更注重尋求削弱敵方“第一次打擊”的能力,這無疑將大大增加意外核戰(zhàn)爭的可能性。
總的來說,人工智能對軍事領域的改變是全方位的,從軍事武器到戰(zhàn)略設計、從全球軍事力量平衡到軍事倫理,都將不可避免地受到?jīng)_擊。在這場沖擊中,優(yōu)勢方將具有全面超越傳統(tǒng)軍事力量的能力,使對方原本有效的威懾原則和傷害手段失效。新的不平衡狀態(tài)可能會使“意外核戰(zhàn)爭”模式重新抬頭。在并不遙遠的將來,在“AI+核戰(zhàn)爭”快速發(fā)展的明天,全球安全體系和倫理基礎都將面臨嚴峻的考驗。