
2022年6月23日,英國皇家三軍研究所(RUSI)網站發布報告,題為《Trust in AI: Rethinking Future Command》,作者是克里斯蒂娜·巴利斯(英國奎奈蒂克公司培訓和任務演練全球活動總監)和保羅·奧尼爾(軍事科學部主任)。報告認為,人工智能(AI)正在改變戰爭。報告提出,國防部如何為未來的變化做好準備?
對人工智能的軍事應用所帶來的可接受挑戰的傳統反應,是堅持人類保持“有意義的人工控制”,以此作為產生信心和信任的一種方式。考慮到人工智能和相關基礎技術的普遍性和快速發展,這不再是一個充分的回應。人工智能將在整個行動范圍內廣泛的指揮和控制 (C2)活動中發揮基本且日益重要的作用。雖然在公眾心目中其威脅不如“殺手機器人”那么直接,但在軍事決策中使用人工智能既帶來了關鍵挑戰,也帶來了巨大的優勢。增加對技術本身的人工監督防止不了無意(更不用說故意)的濫用。
本報告的前提是,各級人員(作戰人員、指揮官、政治領導人和公眾)的信任,對于有效采用人工智能進行軍事決策以及探討關鍵的相關問題至關重要。對人工智能的信任實際上意味著什么?如何建立和維持它以支持軍事決策?為了未來的指揮,作戰人員和人工代理之間的共生關系需要哪些改變?
當人類對人工智能的行為抱有一定的期望時,可以說對人工智能存在信任,不考慮人工代理的意圖或倫理。然而,與此同時,信任不僅僅是技術性能和可靠性的一個函數——它不能僅僅通過解決數據完整性和可解釋性問題來保證,盡管它們都很重要。建立對軍事人工智能的信任還必須解決軍事組織和指揮結構、文化和領導力方面的必要變革。實現總體上適當的信任水平需要采用整體方法。除了信任使用人工智能的目的之外,軍事指揮官和作戰人員還需要充分信任(并且在如何信任方面接受過充分的培訓并具有充足的經驗)支撐任何特定人工智能模型的輸入、流程和輸出。
然而,最困難也可以說是最關鍵的維度是組織生態系統層面的信任。如果不改變軍事決策的制度要素,人工智能在未來C2中的使用將保持次優,僅限于模擬框架。任何新技術的有效引入,更不用說像人工智能這樣具有變革性的技術,都需要從根本上重新思考人類活動的組織方式。
優先考慮人力和制度層面并不意味著對技術施加更多控制;相反,它需要重新構想人類在不斷發展的人機認知系統中的角色和貢獻。未來的指揮官將需要能夠領導不同的團隊組成的真正“整體力量”,該力量整合了來自軍方、政府和民間領域的貢獻。他們必須對其人造隊友有足夠的了解,才能與它們合作并挑戰它們。這更像是椋鳥群的齊鳴,而不是個別“翠鳥”領袖的天才。為了發展新的指揮和領導概念,國防部必須重新考慮其方法,不僅是培訓和職業管理,還有決策結構和流程,包括未來總部的規模、位置和組成。
人工智能已經在改變戰爭并挑戰人類長期存在的習慣。通過在訓練和演習中進行更大的實驗,并通過探索C2的替代模型,國防部可以更好地為即將到來的不可避免的變化做好準備。target drone