【Deepfake】朱茵都能變楊冪 對抗Fake news只能靠自己

環球社會熱點 11:45 2019/03/04

分享:

  • 換臉「被拍片」,幾可亂真
  • 除了惡作劇,更可製假新聞
  • 抗假新聞除靠AI,亦靠自己

國金札記+

人工智能「換臉」影片技術Deepfake盛行,近日網絡瘋傳一段1994年版《射鵰英雄傳》片段,女主角黃蓉由朱茵「換臉」變為楊冪,該影片幾可亂真,觀看次數高達1.2億次。科技日新月異,影片變得真假難分,令假新聞亦不再單單局限於文字,「說服力」大增。真相變得愈來愈模糊下,要辨別Deepfake或fake news,恐怕只能靠自己。

朱茵(左、換臉前)、楊冪(右、換臉後)

Deepfake技術可以把影片上的人像「換臉」,例如將《射鵰英雄傳》朱茵換成楊冪。只要收集目標人物的大量不同角度、表情的相片,軟件即可利用人工智能(AI)創出像真度極高影片。

朱茵換成楊冪的影片引起網上熱論的原因,是該影片可能已侵犯藝人的肖像權,引起法律問題。而在暫時未有相關法律規管的情況下,任何人都有機會被人「移花接木」,慘變各種影片的主角。「黑寡婦」Scarlett Johansson更曾慘變成人影片主角。

Deepfake問題未來料愈趨嚴重。因收集公眾人物照片很易,而現時亦未有針對Deepfake法律規管。AI技術專家吉布森(John Gibson)相信數年後,對電腦有基本認識的人,都可以隨意製作「換臉」影片及偽造聲帶,並將製成品傳播出去。

最可怕的是,Deepfake不只可用於二次創作電視劇來牟利,或者製作成人電影惡作劇等,更可能被「有心人」利用,有政治目的地製作假新聞。

在比利時,「不同社會黨」(Socialistische Partij Anders)曾使用Deepfake技術,捏造特朗普呼籲比利時退出巴黎協定影片,藉此號召比利時民眾聯署,支持應對氣候變化。

雖然該黨強調其假影片沒有不良的意圖,但已引起各界關注Deepfake政治威力。

假新聞干預民意和選舉現時已屢見不鮮,Deepfake興起勢會令假新聞登上新層次,進一步混淆視聽。假影片衝擊力勢必大於虛假文字或圖片信息;反之當有真實影片流出,涉事者亦大可以謊稱是Deepfake,令真相變得愈來愈模糊。

真與假愈來愈難分,讀者最能相信的恐怕只有自己。假新聞之所以幾可亂真,除了是AI愈來愈聰明,亦因現時資訊氾濫,接收者變得懶惰,不太會自行過濾消息,盲目相信所接收的資訊。

故此,最有效分辨消息真偽的方法,除了是依賴人工智能的協助,最重要是接收信息者應自行搜集資料,並進行分析。尤其是在分享影片之前,要再三確認該影片是否真確,否則會令更多人誤信fake news。

然而,在這個分化問題嚴重的社會上,撇除既定立場且客觀分析或者是「知易行難」,或者可能要從源頭入手,需靠各國政府加強教育及宣傳,呼籲各界不要再製作假影片,才能避免假新聞日益增加的問題。

撰文 : 林嘉莉

欄名 : 國金札記+

緊貼財經時事新聞分析,讚好hket Facebook 專版