研究:AI找出仇恨言論 黑人言論被針對高1.5倍

科技 14:00 2019/08/17

分享:

儘管社群平台視AI為救世主,能夠解決棘手的內容審查問題,但看來亦有相當大的疑點,而且如果一開始的訓練素材出問題,後面訓練出來的演算法問題將會更多,變成充滿偏見的 AI。(法新社圖片)

歧視情況普遍,即使在相對平等及開放的美國亦然。近日有研究就指出,利用AI發現網上的仇恨言論,而但中以黑人的言論有更大可能被標示為仇恨言論。

華盛頓大學(University of Washington)研究指出,黑人的Twitter貼文比其他族裔多1.5 倍機會,被AI偵測為仇恨言論,而另一項康乃爾大學研究亦指出,用演算法標示美國黑人英語也有同樣社會偏見傾向,相當容易標示為仇恨言論,比其他高出2.2倍機會。

由於AI演算法難以理解人類語言背後的社會情境設定,有些髒話在其他情境下,像是黑人自己用「黑鬼」用詞,或是自嘲,並不會有太大問題,但AI卻沒辦法讀出字詞背後語境。

AI訓練素材出問題  往後影響嚴重

兩論文都在計算語言學的大會發表,亦指出自然語言處理(Natural Language Processing)並非萬靈丹,有與人類一樣的盲點,如訓練AI的素材有偏差,標示者沒有依據說話情境判斷,就會出問題。

延伸出來的問題,就會是Google、Facebook、Twitter使用的內容審查工具,是否像上述研究所指,從訓練素材出問題並影響演算法。

 

儘管社群平台視AI為救世主,能夠解決棘手的內容審查問題,但看來亦有相當大的疑點,而且如果一開始的訓練素材出問題,後面訓練出來的演算法問題將會更多,變成充滿偏見的 AI。

緊貼財經時事新聞分析,讚好hket Facebook 專版