你看到的熟人的样子,不一定就是熟人;你看到的亲人,不一定就是你的亲人;你听到的熟悉的声音,不一定就是你熟悉的人!
随着生成式人工智能(GenAI)和深度造假技术,或称为深伪技术(Deepfake)的发展及普及化,有图有真相的时代已经过去了,现在不仅是有图未必有真相,就是有视频也未必有真相!
通讯部副部长张念群最近在《中国报》与古来区国会议员服务中心联办的防网络诈骗讲座中发言时指出,科技不断进步,人工智能技术如果让诈骗集团利用,任何陌生来电、讯息甚至视频,都要小心求证,以免上当。
国际研究机构JUMIO一项新的研究显示,全球平均有72%的消费者,担心被AI深伪技术欺骗,以致交出敏感讯息或金钱。只有15%的消费者从未遇到过深伪技术伪造的视频、音频或图像。
![中国报与古来国会议员服务中心在柔佛古来联办“防网络诈骗”讲座。张念群(中)在讲座中发言。左起为张倍敏、林惜怀、赵劲雄和邓杰威。(本报档案照)](https://www.chinapress.com.my/wp-content/uploads/2024/05/20240524fbc06b.jpg)
八大典型案例
由此可见,深入了解深伪技术的诈骗案例,对公众进行宣导,在目前科技日新月异的时代,已经变得刻不容缓。以下为利用AI深伪技术(Deepfake)进行诈骗的典型案例:
一)名人诈骗:骗子使用深伪技术制作知名人士的视频或音频,向受害者发布虚假信息。我国就曾经发生利用首相拿督斯里安华的视频,声称发放援助金,要求公众下载链接或填写个人资料及银行账号行骗。
三)企业欺诈:骗子制作企业高管的深伪视频或音频,向公司财务部门发出指示,要求紧急转账。这种类型的诈骗被称为“语音深伪”诈骗,可能导致企业遭受巨额财务损失。
四)社交媒体骗局:通过深伪技术制作虚假的个人视频,发布在社交媒体上,伪装成亲友或熟人向受害者借钱或索要个人信息。由于视频看起来非常真实,受害者往往难以识破骗局。
五)政治操控:利用深伪技术伪造政治人物的视频或讲话,以散布虚假信息,影响公众舆论或选举结果。这种方法可以在选举期间制造混乱或误导选民。
六)勒索:制作受害者的深伪色情视频,并以此进行勒索,威胁要公开视频以换取金钱。这种诈骗手法利用了受害者的恐惧和羞耻心理。
七)冒充亲友:深伪技术被用来伪造家庭成员或朋友的声音和形象,向受害者借钱或请求帮助。例如,伪造一个孩子的视频,告诉父母自己陷入困境,需要立即汇款。
八)金融诈骗:骗子利用深伪技术冒充银行职员或金融顾问,与客户进行视频通话,骗取客户的银行账户信息或密码,从而盗取资金。
深伪技术多变
以上这些案例展示了深伪技术在诈骗中的多种应用方式,以及其带来的严重威胁。为了防范此类诈骗,公众应提高警惕,核实所有请求的真实性,并使用多重验证手段。
笔者认为,政府应该加强技术和法律手段,以检测和应对深伪技术带来的安全挑战,加大打击诈骗分子的力度。
通讯部或数码部应加紧开发和应用能够识别深伪内容的技术工具,如基于AI的检测算法,能够分析视频和音频中的细微差异,辨别真伪;其次是提高公众的防范意识,教育大众如何识别和应对深伪内容。例如,通过媒体和社区宣传,让人们了解深伪技术的危害和辨别方法。