國外媒體報道:去年秋天,俄羅斯和烏克蘭都夸耀部署了使用人工智能算法跟蹤目標的無人機。現在,新的專家分析表明,雙方都沒有讓它在戰爭中發揮得足夠好——但美國和中國可能會。
華盛頓——去年 7 月《華盛頓郵報》的頭條標題是“烏克蘭戰爭正在引發一場利用人工智能的無人機戰爭革命” 。然后,在秋天,一系列報道稱俄羅斯和烏克蘭都 部署了小型無人機,利用人工智能來識別和跟蹤目標。擁有機載人工智能意味著無人機(俄羅斯“柳葉刀”和烏克蘭“獵隼偵察機”的版本)不需要人類操作員來引導它們一路撞擊。
如果這個人工智能在戰斗中證明了自己,那真的將是一場革命。旨在破壞操作員控制鏈路的電子戰系統——或者更糟糕的是,追蹤傳輸源以進行精確打擊——對于自導無人機來說基本上毫無用處。熟練且稀缺的無人機操作員可能會被數千名經過快速訓練以點擊潛在目標的應征入伍者所取代。并不是每架無人機都需要操作員全程盯著視頻,而是一個人就可以監視一群致命的機器。
總而言之,軍事人工智能將朝著擺脫人類控制的獨立邁出技術上令人印象深刻且有點可怕的一步,就像漫威的奧創唱匹諾曹的“我沒有任何限制”。相反,經過四個多月的前線現場測試,雙方的人工智能增強無人機似乎都沒有產生可衡量的影響。
2月初,新美國安全中心的一份詳細報告用幾句話駁斥了人工智能無人機。CNAS 國防項目總監Stacie Pettyjohn寫道:“Lancet-3 被宣傳為具有自主目標識別和攻擊能力,盡管這些說法尚未得到證實。 ” “雙方都聲稱正在使用人工智能來提高無人機擊中目標的能力,但其用途可能有限。”
然后,2 月 14 日,一項獨立分析表明,俄羅斯人至少關閉了《柳葉刀》的人工智能制導功能。自由撰稿人戴維·漢布林 (David Hambling)在《福布斯》上發布了自秋季以來在網上發布的《柳葉刀》操作員屏幕視頻,其中通常包括一個圍繞目標的盒子,一個能夠隨著目標移動而移動的盒子,以及一條“目標已鎖定”的通知。這些功能需要某種形式的算法對象識別,盡管僅從視頻中無法判斷它是只是為人類操作員突出顯示目標還是主動引導無人機擊中目標。
然而,“過去兩周左右的《柳葉刀》視頻似乎都沒有‘目標鎖定’或隨附的邊界框,”漢布林繼續說道。“顯而易見的結論是,自動目標識別軟件過早推出,并且出現了產品召回。”
不要相信 (AI) 炒作
如果沒有俄羅斯軍事文件或無人機的軟件代碼,就不可能證實漢布林的分析。但佩蒂約翰和另外兩名無人機專家——兩人都能說一口流利的俄語,通常對這項技術充滿熱情——一致認為漢布林的解釋不僅合理,而且是可能的。
“這是一個相當詳細的分析,在我看來是正確的,”陸軍研究實驗室前首席科學家亞歷山大·科特在一封電子郵件中表示,呼吁《突破防御》雜志關注這篇福布斯文章。“很難確定……我還沒有看到獨立的確認,我認為甚至不存在。”
“我認為這是準確的,”與五角大樓關系密切的智庫 CNA 的Sam Bendett在與 Breaking Defense 的電子郵件往來中說道。(本內特還向漢布林講述了他的故事)。
“這項技術需要大量的測試和評估,這項技術需要大量的迭代,而且很多時候這項技術還沒有準備好,”他在《福布斯》報道發表之前告訴 Breaking Defense。“我認為這是一個緩慢的過程,因為雙方都想把事情做好。一旦他們做對了,他們就會擴大規模。
“這實際上在技術上是可能的,”本德特說。“誰在無人機技術上取得突破并迅速擴大規模,誰就獲得了巨大的優勢。”
但佩蒂約翰告訴 Breaking Defense,這種突破顯然還沒有發生在這里。“俄羅斯工業界經常對其武器的能力提出相當古怪的說法,而在實踐中,我們發現它們的性能遠低于承諾……這一點在自主系統中最為突出,正如薩姆·本德特和杰夫·埃德蒙茲在他們的 CNA 關于無人系統的報告中發現的那樣烏克蘭的系統。”
盡管媒體進行了類似的炒作,但烏克蘭人似乎并沒有做得更好。
“有很多關于 Saker Scout 和烏克蘭人一直在開發的自主目標識別軟件的令人興奮的報告,”佩蒂約翰說。“如果 Saker Scout 做了它應該做的事…… 它可以出發,找到目標,并決定自行殺死所有目標,而無需人類干預。”
“它是否真的能做到這一點……很難篩選,”她繼續說道。“我絕對持懷疑態度。”
真正的人工智能革命——日期待定
那么,俄羅斯和烏克蘭——或者美國或中國——真正需要什么才能用人工智能取代人類操作員呢?畢竟,大腦是一個生物神經網絡,經過數百萬年的進化磨練,接收一系列令人眼花繚亂的感官數據(視覺、音頻、氣味、振動),更新外部世界的內部 3D 模型,然后制定和近乎實時地執行復雜的行動計劃。
科特告訴《突破防御》雜志,要使人工智能具備這種能力,就需要戰斗理論家所說的“態勢感知”。“[像]任何士兵一樣......他們需要看看周圍發生了什么。” 科特認為,這不僅需要物體識別——人工智能發現這已經足夠困難了——還需要觀察運動中的物體并推斷出它正在執行什么動作的能力。
這是人類從嬰兒時期就要做的任務。想象一下,當嬰兒被放在高腳椅上時,甚至在看到任何食物之前就說“嗯”:這實際上是一個復雜的觀察過程,將這些感官輸入轉化為關于世界的可理解的數據,將新數據與記憶中的舊模式相匹配,并對未來做出推斷。莫拉維克悖論是人工智能領域最著名的格言之一,即人類認為理所當然的任務對于機器來說可能極其困難。
即使人類在壓力、危險和面對故意欺騙時也很難理解發生了什么。烏克蘭的誘餌——假HIMARS火箭發射器、防空雷達等等——經常欺騙俄羅斯無人機操作員和炮兵軍官,讓他們在假貨上浪費彈藥,而不會去打擾那些偽裝良好的誘餌,事實證明,機器視覺算法更容易欺騙。。戰斗人員還必須警惕危險,從人類大腦進化來識別的明顯可見的危險(有人向你沖鋒、尖叫)到人類感官無法感知的高科技威脅, 如電子戰或瞄準激光鎖定。配備適當的機器可以檢測無線電波和激光束,但其人工智能仍然需要理解傳入的數據,評估哪些威脅最危險,并在幾秒鐘內決定如何保護自己。
但困難還不止于此:戰斗人員必須作為一個團隊一起戰斗,就像人類自第一個石器時代部落伏擊另一個部落以來的方式一樣。與步槍射擊和其他個人技能相比,集體“戰斗演習”、團隊建設以及在火力下進行清晰溝通的協議會消耗大量的訓練時間。因此,軍事人工智能的大國項目——無論是美國的聯合全域指揮與控制還是中國的“信息化戰爭” ——不僅關注火力,而且關注協調,使用算法直接從一個機器人系統共享戰斗數據到另一個機器人系統,而無需其他機器人系統。人類中介。
因此,佩蒂約翰說,實現有效作戰人工智能的下一步,“實際上是將其聯網,并思考它們如何共享這些信息,以及誰實際上被授權射擊。是無人機??嗎?”
如此復雜的數字決策需要復雜的軟件,而這些軟件需要在高速芯片上運行,而高速芯片又需要電力、冷卻、防振動和電子干擾等。對于工程師來說,將這些東西塞進烏克蘭雙方廣泛使用的小型無人機中并不容易。即使是升級版的Lancet-3 也只能裝載不到 7 磅(3 公斤)的爆炸性彈頭,為大型計算機大腦留下的空間也很小。
對于俄羅斯,尤其是烏克蘭來說,必要的工程和成本可能太高了,因為它們的許多無人機都是用郵購零件手工制造的。“鑒于當前 FPV [第一人稱視角] 無人機的成本非常低,而且其中許多無人機實際上是由志愿者在廚房的桌子上組裝的……成本效益權衡可能仍然不確定,”科特告訴 Breaking Defense。
“你看到這么多無人機的原因是它們很便宜,”佩蒂約翰表示同意。“雙方……他們都沒有投資增強抗干擾能力……因為這會使他們的成本太高,無法承擔所需的數量。他們寧愿買很多,然后指望其中一些能成功。”
相關:愚蠢而廉價:在烏克蘭面臨電子戰時,小型無人機的數量就是質量
因此,即使俄羅斯或烏克蘭能夠實施機載人工智能,她說,“我也不清楚它是否會在這場沖突中擴大規模,因為這在很大程度上取決于成本。”
然而,這并不意味著人工智能不會在與其他戰斗方的其他沖突中擴大規模,尤其是與美國和中國等擁有大量國防預算的高科技國家。但即使對于那些將人工智能小型化以安裝在無人機上的超級大國來說,也是令人畏懼的:像 ChatGPT 這樣引人注目的人工智能在大型服務器群上運行是有充分理由的。
但這并不意味著問題無法解決——或者說必須百分百解決。人工智能仍然會出現故障和產生幻覺,但人類無論在戰斗中還是戰斗外都總是會犯致命的錯誤。民用類比是自動駕駛汽車:它們不需要 100% 避免事故才能比人類駕駛員有所進步。
根據定義,在任何人類群體中,執行任何特定任務時,“百分之五十的人都會低于平均水平,”科特指出。“如果你能做得比‘低于平均水平’更好,那么你的運營效率就已經加倍了。”
當你發動大規模戰爭時,比如在烏克蘭,或者任何未來的中美沖突,即使是微小的改進也可能產生重大影響。“不一定是 100%,”科特說。“在很多情況下,20% 就足夠了,比沒有好得多。”
他警告說,西方對高性能的要求與大規模戰爭的現實并不相符。“我們要求完全的可靠性,我們要求完全的準確性,[因為]我們不像烏克蘭那樣面臨生存危險,”科特說。“烏克蘭人并不指定完美。他們負擔不起。”