在美國和以色列對伊朗發動空襲的第一天,伊朗南部城鎮米納布的一所學校遭到炸彈襲擊,造成包括學生在內的175多人死亡。華盛頓和特拉維夫方面均未就此事作出解釋也無人認領責任。一個問題不斷湧現:是人工智能系統誤擊了目標嗎?
在最初的24小時內,美軍打擊了約1000個目標,平均每小時約藉助Maven智能系統,20人就能完成過去需要2000人團隊才能完成的工作。到2024年底,美國已將大型語言模型(與消費級人工智能聊天機器人背後的軟件類型相同)集成到Maven系統中。這是最早將該技術應用於
美國軍方表示仍在調查米納布襲擊事件。但尚未說明是否參與向該建築物發射導彈,以及參與程度如何
《紐約時報》早前報道稱,該系統可能使用的是舊數據。駐外記者dent·洛夫拉克在X網站上撰文指出,此次襲擊可能“基於十年前的情報免費都會在其中一個被標記爲襲擊目標的地點看到“一所帶運動場的學校”。
計算機科學家 Anh Totti Nguyen 研究了人工智能視覺系統出錯的原因。他的論文《視覺語言模型是盲目的:無法將詳細的視覺特徵轉化爲詞語》指出,當兩個結構彼此靠近時,這些系統常常會出錯,因爲軟件需要判斷哪個是哪個。
《紐約時報》的衛星圖像顯示,沙賈拉·塔耶貝小學緊鄰米納布的一個伊朗伊斯蘭革命衛隊大院,這與阮的研究指出。
前海軍軍官、安全與新興技術中心高級研究員埃米莉亞·普羅巴斯科在“四重奏”播客節目,責任在於下達命令的指揮官。這就是軍隊的運作。她指出,所謂“黑箱問題”,即無法瞭解人工智能系統如何得出答案,是“一個仍在研究的領域,而非已經解決的問題”。
戰前,Maven提供與國防部就兩發生了合同:人工智能是否足夠可靠,可以用於生死攸關的決策,以及使用人工智能連接分散的數據點是否會使其成爲大規模監控工具trac
普羅巴斯科表示,這兩個擔憂都成立,但他指出“一傢俬營公司對軍隊如何開展行動”。
霍蘭德·米歇爾說,討論總是朝着最糟糕的情況發展:一臺無需人爲干預自動選擇目標並開火的機器。他表示,這種風險確實存在,但這並非目前正在發生的。
他說: “更難、更緊迫的工作是讓人工智能系統更加透明,並確保依賴其輸出結果的人類能夠做出真正知情的決定,而不是簡單地聽從機器的任何建議。”
BBC Verifytrac到人工智能製作的關於這場衝突的視頻和篡改過的衛星圖像,這些視頻和圖像吸引了數億次的觀看量。
昆士蘭科技大學數字媒體研究員蒂莫西·格雷厄姆表示: “規模之大令人震驚,這場戰爭讓我們再也無法忽視。 ” 他補充道: “過去需要專業視頻製作才能完成的工作,現在只需幾分鐘就能借助人工智能工具完成。製作逼真的合成衝突畫面的門檻已經基本消除。”
X公司表示,如果創作者發佈未經標註的AI生成的戰爭視頻,將會取消“是一個重要的信號,表明他們已經意識到這是一個嚴重的問題”。當被問及是否計劃採取類似措施,Meta和TikTok均未作出回應。
你的錢在銀行手裏,你卻只能拿到殘羹剩飯。觀看我們的免費視頻,瞭解如何成爲自己的銀行