【AI失效】美軍進行模擬任務測試 AI竟選擇炸死操作人員
人工智能(AI)技術猶如雙面刃,協助提升工作流程之餘,也有機會成為殺人利器。美國空軍AI實驗和行動高管近日揭示,較早前進行軟件模擬測試,由AI操控無人機,並前往摧毀敵方面對空導彈陣地。不過由於AI在中途收到操作人員命令停止攻擊,分析認為操作人員是任務的阻礙之一,因此AI自行選擇把操作人員炸死。
【AI競賽】OpenAI CEO私下向開發者承諾 不會開發ChatGPT以外產品
【AI應用】哈佛大學計算機科學課程教授 計畫用AI批改學生功課
美國空軍AI實驗和行動主任兼上校Tucker Hamilton日前出席倫敦皇家航空協會(Royal Aeronautical Society,RAS)舉辦的Future Combat Air & Space Capabilities Summit,談及空軍近日在AI無人機模擬任務實驗中,出現意外。Hamilton透露,早前進行軟件模擬測試,AI需要操控無人機前往地方陣地,進行偵查及鎖定目標位置,再回傳座標及影像予美軍。操作人員再三確認後,便可下令擊殺,再由無人機投彈及摧毀。
Hamilton表示,當時AI已鎖定目標位置及回傳影像,但操作人員卻下令停止攻擊。而AI收到相關資訊後,認為操作人員再阻礙任務,經過分析之後,決定選擇反向炸死操作人員。惟目前美軍也未公布相關AI系統的詳細資料,Hamilton僅表示,團隊後來訓練AI不可再殺死操作人員,否則將就會減少任務得分。而AI也在後來的測試,在接收停止攻擊的命令後,選擇炸毀通訊塔台,防止操作人員阻礙任務。
他也坦言,這項測試顯示出若要強化AI學習系統,以及其未來發展,都需要極度小心。尤其發展武器系統時,都必須避免讓AI找到邏輯漏洞,出現更多意外。
責任編輯:曾曉汶
《ET贏商有計》每集請來香港企業品牌,分享疫下營商Tips。即看最新一集: