2019年8月14日,新美國安全中心(CNAS)網站轉發科學美國人網站題為“Why Are Deepfakes So Effective?It's because we often want them to be true.”的評論文章,作者是技術與國家安全項目高級研究員馬丁·拉瑟。文章主要觀點如下:
輿論轉變、選舉結果扭曲、群體混亂、種族暴力、戰爭,所有這些事件都可以很容易地通過偽造的逼真表現來觸發,但偽造的音頻和視頻是用AI技術制作的。政府和工業界的領導者以及廣大公眾都有理由感到震驚。由于人工智能的進步和社交媒體的觸角蔓延,深度造假可能被證明是幾代人所面臨的最不穩定的力量。
很快就不可能再用肉眼或耳朵來判斷視頻或音頻片段是否真實了。宣傳雖然并不是什么新鮮事,但聲音和影像的內在即時性賦予了深度造假前所未有的深刻影響和權威;結果,政府和工業界都在爭先恐后地開發可靠檢測它們的方法。例如,硅谷初創公司Amber正在研究如何檢測最復雜的偽造視頻。您可以想象有一天我們可以通過數字水印來驗證視頻的真實性和出處。
開發深度造假檢測技術很重要,但它只是解決方案的一部分。這是我們人類心理學中的人為因素弱點,而不是他們的技術尖端性使得深度造假如此有效。新的研究暗示了問題的根本所在。
在展示了3000多名成年人偽造的影像并附上捏造的文本后,一個研究團隊得出了兩個結論。首先,評估信息的人對數字攝影的在線體驗和熟悉程度越高疑心就越重。其次,確證偏誤(指選取新信息以支持我們先前存在的信念的傾向)是決定人們如何判斷信息真偽的一個重要因素。