Deepfake在西方国家已成为国际媒体频繁讨论的焦点,名人的Deepfake影片近年来更是层出不穷,俨然成了有心人士在网络资讯战上操弄风向的关键武器,可怕的是,不是工程师也可以办得到。Deepfake可用于影像或声音,只需要有欲仿造对象的人物影音或影像素材,就能产出肉眼难以辨识的内容,达到以假乱真的境界……

刚宣布引退的台湾知名YouTuber小玉(朱玉辰)日前遭警方逮捕,涉嫌于Telegram群组收费散布多则网红、YouTuber、政治人物等名人的Deepfake造假色情影音,不少社群网红也因此发声,为受害者表达难过与愤怒之情,“小玉”的网络热度也因此被推上高峰……
到底“Deepfake”是何方神圣,可以做到以假乱真的地步、严重危害人类自主权?
Deepfake中文译作“深伪”(又称“深假”),是一种透过AI人工智能中的深度学习(Deep Learning)技术创造出的fake(伪造)讯息。自2017年问世后,透过3年来的技术精进,使Deepfake门槛完全降低,近乎正常人都能上手,只需要仿造对象的人物影音素材,就能轻易制作出来。
简单制作Deepfake影片非难事
由于Deepfake开源技术大幅降低应用门槛,让人轻松下载就能使用的各式换脸App,要做出一个简单的Deepfake影片并非难事。也因此,社群媒体如面子书在今年1月祭出强硬措施,下架Deepfake影片,而Twitter也在2月时跟进。
令人担心的是,从Deepfake衍生的问题,可不光只是假讯息。
一项新科技所带来的威胁,有可能会不断演变、扩及不同领域,人们最担心的,是它在色情影片上的应用。
根据AI新创Deeptrace于去年的报告显示,截至目前,网络上仍有高达96%的Deepfake影片,是未经当事人许可下合成的色情影片。
同时,上传这些色情影片的论坛累计超过1.34亿次的浏览量,神力女超人盖尔加朵(Gal Gadot)及黑寡妇史嘉蕾乔韩森(Scarlett Johansson)等上百位国际女星都是受害者。
“报复性色情影片”
成要胁利器
明星或许还有名气作为最后一层防护,但对一般人而言就不同了。社会新闻中,情侣分手后用“报复性色情影片”(Revenge Porn)要胁的事件屡见不鲜,但当报复性色情影片遇上Deepfake,恐怕将唤起人们心中最深层的恐惧。
2018年,一位印度的调查记者拉娜艾雅伯(Rana Ayyub)在揭露了一则关于克什米尔女孩性侵事件的两天后,于Whatsapp上看到社交群组疯传以她为主角的Deepfake色情影片。她的社群平台被不雅影片的截图洗版,而她却不知道如何向别人说明,影片中的人并不是她。
另外,加拿大新媒体Vice就曾派旗下记者实际到网络上找人客制化Deepfake色情影片,结果只花了约134令吉就得到了成品,显示Deepfake已经有了基础的商业模式。
这就是Deepfake恐怖之处,只要找到门路,任何人都能用极高说服力,将你没有说过的话、没有做过的事给强压在你身上。不过,既然Deepfake是以AI作为武器,以其人之道还治其人之身,“AI攻防战”似乎是最主要的解套方式。


AI假讯息威胁
攻防战没人幸免
以查破社群平台假账号起家的以色列新创Cyabra,近来就成功研发侦破Deepfake的AI技术,并以此技术在今年2月的美台科技挑战赛中获得亚军。Cyabra全球业务副总裁阿赛夫丹比(Assaf Danby)指出,透过他们所开发的AI演算法揪出Deepfake影片,准确率可达97%。
他们是怎么做到的?他们研究影片的解像度及压缩率等数值,并拿来分析人物脸部表情及肢体动作是否自然。
例如戴上眼镜后人脸焦距的变化是否正确?嘴唇的动作与下巴及喉结肌肉的连动状况有无异状?“我们能一帧一帧的检验影片的真伪。”丹比解释。

自从新冠疫情爆发审核疫情不实资讯,就成了Cyabra的主要目标。“3月底时我们就发现,有一个以国际药厂Roche(罗氏)为名的影片,声称他们做出了疫苗。”
从色情影片威胁、到各种议题的资讯操作,随着Deepfake技术日新月异,涉及的犯罪领域也不断扩大。丹比呼吁,下一波Deepfake攻击,可能将锁定网络银行的用家。“愈来愈多用家选择透过视讯电话来开户头,而Deepfake影片也能伪造某人身分,在视讯电话中通过银行的人脸辨识系统审查。”
说到底,技术毕竟是中性的,因使用人而异。对丹比来说,这项技术将继续改变人类的生活,无论是好是坏,或许人类世界所代表的,就是我们在好坏之间拉锯,与AI共舞的时代。”
在这些真假难辨的资讯中,唯有一件事情是肯定的,那便是人们对于“真相”的理解将重新被形塑。
善用Deepfake
用途广效益大
除了伪造谜片,如善用Deepfake还是有很好的用途,为人类发展带来许多方便性,从医疗、历史到影视产业等,若我们加以运用,相信可以在数码层面带来很大的帮助……
1.唤醒故人,原音重现:
语音服务新创公司Aflorithmic曾释出一段机器人的影片,影片中已故的物理学家爱因斯坦(Albert Einstein)仿佛活过来一般,不只声音重现,更使脸部表情完美呈现。
据外媒报导,在这段短短的影片中,爱因斯坦的3D面貌再制,由软体公司UneeQ打造、搭配Aflorithmic语音复制技术,使观众好像能亲眼看到爱因斯坦本人,也扩大了未来Deepfake声音与画面技术的应用范围。

2.技术合成声音,聋哑人获新声:
美国波士顿儿童医院(Boston Children’s Hospital)为不能说话的患者再制声音,先把既有的声音存取,再透过Deepfake技术合成最接近原音的呈现。使聋哑人未来依旧能用“原声”与他人沟通。
这是Deepfake跨足医疗用途的很大一个里程碑,但获得这项技术的同时,许多人也希望能给予配音员、表演者、广播记者等“提供声音取样”的工作者,更多的法律权益,而这也是未来应重视的范畴。

3.协助影视产业换脸效果制作:
根据外媒报导,曾有影视研究人员对外展示具备百万像画素解析度的逼真Deepfake,所产出的影像可达到1024 X 1024像素,虽然仔细看影片展示的成果,仍会从中看到许多端倪与缺陷,但已显示这项技术对于影视产业的发展,具有加成的功能,未来会如何发展,值得期待。

◆ 图:互联网