【AI爭議】OpenAI稱已覓對策 解決「AI幻覺」減少編造謊言
人工智能(AI)所生成的答案,雖然看似有模有樣,但其實仍存在很多錯誤,被外界稱為「AI幻覺(hallucinations)」。而近日ChatGPT開發商OpenAI就發表論文,闡述已找到對策,解決AI幻覺的問題,從而減少模型邏輯錯誤,避免編造謊言。
【AI助手】美國運通AE引入AI員工 批核信貸額度+分析客戶財務狀況
【Microsoft AI】Microsoft Teams增智能回顧功能 AI整理重點兼提出方案
據CNBC報道指,OpenAI昨(31日)發布論文並提到,已尋找新對策來迎戰AI幻覺問題。研究人員表示,未來將會在訓練AI模型期間加以監督,當AI在每個步驟推理正確時,便會給予獎勵,而不是僅僅等到推理出正確的最終結論時才給予獎勵。研究人員解釋,這方法為「過程監督」,不再只是進行「結果監督」,相信這能更有效地鼓勵模型,可按照類似人類的思考”式進行推理,訓練出更好的AI。
所謂的「AI幻覺」,是指AI會自信地生成出看似具說服力、實際卻是錯誤答案的問題,儘管這答案在其訓練數據中並不合理。早前就有研究員指出,這個問題通常出自於運行聊天機械人的大型語言模型(Large Language Models)本身設計,因此企業應多加以留意。
而目前研究人員紛紛提出建議,盼能不斷改善相關問題,例如麻省理工學院(MIT)最新報告就提議,讓多個機械人相互辯論,來取得更符合事實的答案。劍橋研究人員則設立「SelfCheckGPT」系統,讓機械人多次回答同一問題,來確保答案一致。
【Nvidia AI狂潮】GPU對AI發展有何重要? Nvidia CEO黃仁勳:長遠助企業慳成本 效能提升1,000倍
責任編輯:曾曉汶
《ET贏商有計》每集請來香港企業品牌,分享疫下營商Tips。即看最新一集: