【智创脉动】各出奇招! 隐私权“斗”人脸辨识 | 中國報 China Press
  • 告别式
  • ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    【智创脉动】各出奇招! 隐私权“斗”人脸辨识

    人脸辨识虽然有其方便之处,但也衍生了许多资讯安全及隐私问题,因此美国旧金山等城市,已针对人脸辨识祭出禁令。而为了解决此问题,美国麻省理工学院(MIT)开发了能混淆AI相机的T恤。当人脸辨识等AI演算法与人类的矛盾日渐凸显,未来这种欺骗AI的需求,可能会越来越多……

    ADVERTISEMENT

    ADVERTISEMENT

    上两星期,中国迎来了“人脸辨识第一案”,浙江理工大学一位教授因不满杭州野生动物世界,强制要求年卡用户注册人脸辨识,因此将动物园告上法庭。

    随着人脸辨识技术日益普及,事实上在生活中,我们都不知道自己的脸,什么时候正在被辨识。尽管美国旧金山等城市,已针对人脸辨识祭出禁令,但在更多国家和城市,相关的法律政策还没跟上来。

    最近,美国西北大学(Northwestern University)和麻省理工学院(MIT)的沃森人工智能实验室(MIT-IBM Watson AI Lab),开发出一种印有特殊图案的T恤,只要穿上身,就能躲过AI系统的监控,让一个大活人在监控镜头前“消失”。


    这是怎么做到的呢?其实原理并不复杂,研究人员使用一种称为“对抗性机器学习”的方法,欺骗人工智能(AI),因为电脑视觉辨识系统,一般上依赖大量数据训练来提高辨识的准确率;透过同样的方法,也可以找出能够欺骗系统的图案。

    早在2014年,谷歌和纽约大学的一项研究就已经证明,物体和人脸辨识的算法,容易受到以对抗性学习为基础的攻击。今年4月,比利时鲁汶大学(KU Leuven)的研究人员就透过这个原理,用一张贴纸成功欺骗了AI系统。

    但这种欺骗AI系统的方式有一个缺陷,只要图案的角度和形状发生变化,就会轻易被识破。因为,过去一般上都是用硬纸板、停车牌或玻璃等硬物做为载体。

    这次麻省理工研发T恤的突破在于,即便衣服上的图案随着人的姿势变化而变形,一样能欺骗AI系统。

    阅读更多精彩文章 马上浏览独家配套

    MIT研发T恤穿上消失镜头前

    研究人员指出,对抗性机器学习经常被用于欺骗电脑视觉系统,但还难以根据在随着运动而变形的衣服上建模。因此,他们采用了一种叫做“薄板样条线”(TPS)的数据插值和平滑技术,让模型可对具有重复射(保留点、直线、平面)和非仿射分量的坐标,进行转换并建模。

    简单来说,这项技术让柔性物体也能模拟刚性物体的对抗性学习,从而欺骗AI。
    从图片中,我们可以看到这种T恤上印有黑白棋盘格子式样的图案,在系统辨识时,每个格子之间会出现红色的小点,这就是薄板样条线(TPS)转换的控制点。

    研究人员分别在现实和虚拟环境中测试这种T恤,准确率分别能达到63%和79%。不过,如果在同一画面上出现两个,或者更多穿着这种T恤的人,成功率则会降低。

    可惜,这种方式一样有局限性,只能骗过特定的辨识算法,对于Amazon Web Services、Google Cloud Platform和Microsoft Azure等辨识系统,并不能使用。但研究人员指出,这只是“迈向对抗性可穿戴设备的第一步”,为针对AI的对抗性干扰,提供一些启发。

    当人脸辨识等AI演算法与人类的矛盾日渐凸显,未来这种欺骗AI的需求可能会越来越多,甚至成为一种新的职业。

    俄罗斯特殊化妆骗倒智能相机

    人脸辨识系统的应用范围日益广泛,但问题在于,人脸辨识利用的是人类的生物讯息,此类讯息一旦被窃取,就很难修改,从而可能导致严重的后果。

    俄罗斯科技巨头Yandex技术总监Grigory Bakunov工程师也意识到这问题,他认为,当人脸辨识技术被滥用后,会让一部分人感到隐私被侵犯。人脸辨识系统被不同的人用于不同的目的,会进而被利用在摄像镜头等方面,侵犯了人的隐私。

    为了解决这一问题,他和伙伴开发了一种简单有效的算法,这种算法能够提供一种服务,类似一种特殊的化妆,让人们在AI面前隐藏起来。这项服务是给人们一些特定的掩饰效果,比如用一些面部线条来骗倒智能相机。

    不过,由于这项技术也可能会被用于不好的方面,Grigory Bakunov并没有公布算法和原理,同时也不打算将这个技术投放在市场,因为,这项技术被用于犯法的可能性要更高一些。

    Privacy Visor日本教授反击摄像头

    早些年,谷歌眼镜曾引发人们对隐私权的讨论,在这个遍布摄像镜头和电眼的社会,如何不被识别出来,也需要借高科技设备来帮忙。

    由日本国立情报学研究所教授越前功(Isao Echizen)研发名为“Privacy Visor”眼镜,加装了一片网状花纹薄膜,外形类似苍蝇镜,采用钛合金制成的轻量镜框,利用反光涂料和特殊纹路反弹并吸收光线,投射至摄像镜头。

    因此,从镜头的角度拍摄,人眼周围会比较阴暗、鼻梁至颧骨的位置则会过亮,影响系统的辨识能力,无法针对人脸做出有效的辨识,可以完美阻止被人脸辨识的摄像头抓取讯息。

    美国特制眼镜误导识别成他人

    无独有偶,美国卡内基梅隆大学和北卡罗来纳大学的研究人员,也共同开发出升级版的反人脸辨识眼镜,一共有5种款式。使用者戴上眼镜后,能成功骗过人脸辨识系统的“眼睛”。

    研究人员兼联合开发者马哈茂德谢里夫透露,眼镜在测试基于神经网络学习的人脸辨识系统时,成功骗过〈Face〉的几率达90%。〈Face〉是一款专注人脸检测、分析和识别的软体。

    一名男性在佩戴后,被识别成女演员米拉乔沃维奇(Milla Jovovich),而他的女同事则被误识为一个西亚男人。

    德国紫色围巾幻影人脸躲辨识

    中国有许多监控镜头,加上人脸辨识系统,可以随时掌握人民的生活动向。近期香港在反送中行动中,有报导说港府已在灯柱里装设交通探测器及全景摄影镜头,引起香港人的忧虑与恐惧,害怕自己在无形中被掌控。

    因此,在LIHKG讨论区中,有网友分享经过特别设计的衣服,能透过特殊设计躲过人脸辨识。这条德国HyperFace设计的紫色围巾,虽然表面上看似无意义的花纹,却可呈现出大约1200张的幻影人脸,造成系统当机、难以辨识。

    用于搜捕嫌犯引发歧视问题

    虽然人脸辨识技术的未来看似多元又方便,但若是应用在涉及人权的犯罪防治工作上,则引发了歧视问题。

    2015年,美国佛罗里达州警方在执行毒品查缉当卧底时,暗中拍摄了几张嫌犯的照片,后来透过人脸辨识软体搜捕了嫌犯。尽管当时许多科技专家认为呈现的结果存有瑕疵,但当局仍然逮捕了由软体辨识出来的嫌犯。

     

    人脸辨识逮捕嫌犯真的精准吗?根据2016年美国乔治城隐私暨技术法律中心公布的一份调查报告指出,在美国执法机构中,可存取的美国成人人脸辨识资料超过1.17亿人,这个数字几乎是一半的美国成年人,都被记录在资料库中。

    同时,美国至少有26州允许执法机构执行人脸辨识搜寻,大约有一半的美国成人因此受到影响,而且,现阶段还没有针对人脸辨识数据的隐私设立法律规范,警方不需要任何证据或理由,就可以监控民众的资料。

    这份报告中还提到,脸部识别数据库会“无意识”地偏向识别黑人,但依据现在的演算法技术,识别黑人的准确度相对较低、较容易出错,黑人被归类在“高风险”类别的几率是白人的两倍。

    本应提供客观意见的人工智能演算法,也如同现行司法系统一样,并不是完美的生物辨识系统,新技术潜在的偏见,也让许多民权团体呼吁美国当局应该立法,避免技术被滥用甚至侵犯人权。这样的状况,让黑人、少数族群在新科技时代面临新的困境!

    文图整理:李毓康

    ADVERTISEMENT

    ADVERTISEMENT

    *本網站有權刪除或封鎖任何具有性別歧視、人身攻擊、庸俗、詆毀或種族主義性質的留言和用戶;必須審核的留言,或將不會即時出現。

    ADVERTISEMENT


    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT

    ADVERTISEMENT