【AI爭議】人臉辨識欠準確有偏見 學者:問題難以根除

科技 09:00 2020/08/17

分享:

有學者指出,就算是現時最頂尖的技術,仍難以完全消除反映在AI系統有關性別、種族的偏見問題。(圖片來源: 法新社)

人工智能(AI)發展深入各種科技應用,近年它所隱含的偏見問題開始備受關注。研究AI倫理問題的專家指出,針對現時對AI準確度的爭議,技術上難以完全根除偏見,但可透過提高AI模型的透明度,並加強問責機制,讓業界、政府與公眾可共同監察AI的發展。

過去數個月科技界對AI爭議持續升溫,以在風眼中的人臉辨識技術為例,就被指有種族偏見風險,針對不同種族的辨認準確度有別,同時技術會否被濫用於侵犯公民權利亦受關注。

研究AI倫理問題的學者、加州大學柏克萊分校長期網絡保安中心研究員Jessica Cussins Newman接受訪問時承認,就算是現時最頂尖的技術,仍難以完全消除反映在AI系統有關性別、種族的偏見問題,「雖然現在已有工具協助開發者,減少演算法的偏見,但難以完全消除問題。」她解釋指,AI技術只要是由人去設計、基於現有數據建立學習模型,最後AI亦會繼續複製含有偏見的結果。

>>【數碼轉型】Nutanix架構可在AWS使用 助混合雲管理

>>【5G電話】Samsung Note 20發布 6.9吋巨屏支援5G

AI有局限 倡部分領域應禁用

但她強調:「問題核心並不在於AI在某些情況下欠準確,就算科技進步可再減少誤差,它對個人私隱與權利侵害的風險仍存在。」她認為,同樣值得關注的,是這些有偏見、未夠可靠的AI系統,被採納至公共服務,並且欠缺合理的記錄、問責與懲治機制。她提到,要從公眾教育與政策兩層面出發,讓公眾對AI的局限有更深的理解,從而防止它可能帶來嚴重問題,亦有些領域不應該使用AI。採用AI技術時,必須要容許用戶與受影響的社群,有合理機制就AI系統的決定進行討論。

她續指,近日IBM、Amazon等科企暫停向美國警方提供人臉辨識技術的集體行動,亦反映企業界對AI責任問題轉趨積極。另值得一提的是,大型科企銳意增加AI的透明度,並將抽象的AI倫理原則,轉化至具體運作與政策。她舉例,Google早前發布的「Model Cards」工具框架,提供介面讓開發者較簡易地向公眾提供有關機器學習模型的資料,便有助提高AI開發系統的認知。

記者: 周俊霖

緊貼財經時事新聞分析,讚好hket Facebook 專版
訂閱《香港經濟日報》電郵通訊
收取第一手財經新聞資訊 了解更多投資理財知識 提交代表本人同意收取香港經濟日報集團所發出的推廣訊息,你也可以查閱本網站的私隱政策使用條款