315常客!为何是人工智能、人脸识别信息安全?

  毫无疑问,人工智能正在深刻地改变社会。如果我们谈论未来,我们不能避免谈论人工智能。

  人工智能作为国家印章认证的“新基础设施”之一,近年来发展迅速。——基于人工智能技术的应用已经扩展到各个领域,包括零售、旅游、金融、医疗、教育、农业、工业,并且出现了大量的人工智能明星公司和独角兽。

315常客!为何是人工智能、人脸识别信息安全?

  “科学技术是一把双刃剑”。在人工智能技术尖锐的另一面,一些意想不到的“副作用”诞生了。随着人工智能技术的进步,焦虑和恐惧不断加剧。

  央视曝光“人工智能骚扰电话”

  2019年,“315党”揭露了一个完整的黑色产业链,从截取用户应用程序隐私数据,从探测盒到人工智能骚扰电话。然而,早在2017年,人工智能就被“315晚会”命名为——,而通过自拍进行三维建模后的“虚拟生活”可以轻易地愚弄人脸识别登录系统并成功“黑进”个人账户。

  人工智能技术是一个追求个人基本权益的长期命题。然而,回顾2019年,我们会发现在一个又一个新闻热点的背后,从肖像权到个人隐私权,个人信息的“裸奔”状态并没有得到有效改善

315常客!为何是人工智能、人脸识别信息安全?

  8月底,一个名为“ZAO”的人工智能面板应用突然闪现在一群朋友面前,公众再次成为这个非凡应用的娱乐对象。在zaoap,用户可以上传自己的肖像照片。应用程序使用人工智能变脸技术来取代用户在各种电影和电视剧中的肖像。

  在一些论坛上,一些人工智能从业者对“ZAO”的诞生感到非常惊讶。毕竟,“因为法律纠纷,地下色情业现在不敢轻易碰这个地方。ZAO能通过法律障碍吗?”。

  果然,在《ZAO》上映两天后,其用户协议中的陷阱被网民们揭开了。最受批评的“用户的图像权是一个世界范围的免费、不可移动、永久可转让的许可证”,这意味着用户已经交出了他的图像权。此外,如果被换了脸的明星因侵犯图像权利而提起诉讼,用户将承担全部责任,而“ZAO”,如“平部”,将“置身事外”。

  无论是“人工智能变脸”还是“人脸识别”,人脸作为每个人最直观、最独特的生物特征,在使用中隐藏着巨大的法律风险。因此,关于强制收集和过度抓取人脸信息的争论一直没有停止过。

  10月19日,“排名第一中国人脸识别案”展开了一场热搜。浙江科技大学的特聘副教授郭冰将杭州野生动物园告上法庭,理由是该动物园将把每年一次的持卡人身份认证从指纹认证改为人脸识别认证。没有注册面部识别的用户将不能正常进入公园,也不能申请退款。为什么在没有咨询用户的情况下,默认用户愿意将面部信息信任给花园?郭冰对强加的新政策非常生气,“我认为这显然违反了《消费者权益保护法》号法律,不符合《网络安全法》号法律,甚至不符合目前正在制定的《个人信息保护法》号法律。”

  “人脸识别”已经成为人工智能技术侵权的“早起鸟”。然而,在我们的日常生活中,从智能手机APP上的“窃听”到监控输入法,很难准确定义“善意”推荐和信息泄露之间的界限。其中有多少来自用户的完全意愿?

315常客!为何是人工智能、人脸识别信息安全?

  小学生戴“头环”去上课

  新技术创造了新的应用场景,带来了更多意想不到的法律问题。——名小学生戴着“脑-机接口”头盔上课。人工智能技术已经开始成为老师和家长的“间谍”。人权和技术之间的冲突再次被提到部.

  监督的尴尬:立法滞后,诉讼难执行

  2019年11月底,国家互联网信息办公室、文化旅游部和国家广播电影电视总局联合发布《网络音视频信息服务管理规定》,明确规定“利用基于深度学习和虚拟现实的虚假图像和音视频生成技术制作、发布和传播谣言者.应当及时采取相应措施消除谣言”。12月20日,全国人大常委会法律工作委员会宣布,中国将于2020年颁布“元规则”,从根本上解决个人信息保护法和数据安全法——的问题。

  然而,由于人工智能技术的快速创新和广泛多样性,法律能否跟上技术的快速发展?在公众对个人信息保护的意识普遍淡漠的时候,我们怎么能这样做呢?

  中国互联网协会法治工作委员会副秘书长、中国消费者协会法律团队律师胡刚跟踪中国互联网发展20年。他告诉搜狐科技,除了立法,中国新版《个人信息安全规范》(以下简称《规范》)于3月9日正式发布。作为一项国家推荐标准,对行业约束具有指导意义。

  从《规范》判断,新版完善和改进了个人信息主题通知的收集和个人生物信息的存储。

  但胡刚指出,新版本《规范》与旧版本相同,大部分厂商仍对企业及相关技术负责,因此仍有很大的局限性。“至少应该有三组人,包括商业代表、消费者代表,然后是道德和法律专家。但事实上,后两者只占成都的不到两个。”

  自2017年排名第一版本《规范》发布以来,强制授权、过度索取权力和收集超出范围的个人信息的情况仍然普遍存在。我们所知的许多大型互联网/技术公司都是由互联网信息办公室等部门命名的。“刷脸”登录/支付现已成为移动应用的主流

  胡刚表示,以许多互联网/科技公司推广的“刷脸”功能为例,“正确的方法应该是通过算法从用户拍摄的个人照片中推断出一组无法恢复到脸部的单向数据,并将纯数据传输给公司。用户的照片应该在本地存储一小段时间后立即销毁。然而,遗憾的是,整个(互联网)行业并没有这样做。它做的是整张脸(部后,将用户的面部信息直接发送给企业)。”

  此外,《规范》不具有与法律相同的威慑力量。一直以来,职能部门的处理方式大多集中在命名、访谈和整改上。两年前,支付宝因未能保护个人信息而被中央银行罚款5万元,引起公众强烈抗议。

  胡刚告诉搜狐科技,个人信息泄露/交易等基本上都是大规模的案件,“没有人关心50万用户数据,他们根本卖不出去钱。他们必须做1000多万条(用户信息)。”

  这也意味着,即使在部立法颁布之后,由于诉讼执行的困难,无人负责、无人改变的恶性循环仍将重复。

  为了更好地执行《个人信息保护法部》,从源头上防止此类事件的发生,胡刚认为仍有三件事要做:“首先,必须有一个专门机构,如香港隐私专员办公室或一个纯粹的公益组织,在关键时刻可以代表广大消费者提起诉讼;其次,界定民事赔偿金额的标准,如一条信息应支付多少。第三,加大行政处罚力度。例如,欧盟去年将对一些公司处以相当于全球收入4%的巨额罚款。”

  “反黑人工智能”的前景与困境

  法律限制是整个行业行为准则的先决条件,但目前,在棘手的问题上,个人信息披露/贩运/伪造已经形成了一个庞大而成熟的产业链。既然人工智能能帮助“黑货”,它能反过来“以同样的方式对待别人”吗?

  自从2019年“人工智能打骚扰电话”的黑色产业链被曝光后,第二天,阿里巴巴人工智能实验室的内部代码“哈尔”智能反骚扰电话技术被曝光。在一段演示视频中,一名贷款推销员和“哈尔”在超过一分钟的时间里都没有发现他们谈话中的任何漏洞。他们甚至得到了“北京能得到贷款吗?”“我最多能借多少”是一个活跃的问题。

  与此同时,谷歌等大型外国公司宣布推出“人工智能反骚扰电话”研究。尽管这项技术还处于研究的早期阶段,但可以预测,未来的垃圾电话很可能会成为人工智能和中国之间的对抗。然而,“人工智能变脸”技术自诞生以来就饱受丑闻困扰,它也一直在等待防伪领域的“突破”。今年2月,微软亚洲研究院计算机视觉小组的最新研究成果“人脸x光”技术被纳入CVPR 2020,该技术可以识别人脸图像和视频的真假。

  微软最新研究成果x光“假脸”

  微软亚洲研究院高级研究员陈栋告诉搜狐科技,这种图像识别技术在搜索引擎过滤、视频网站审计、司法鉴定等领域有应用前景。然而,人脸x光目前仍处于基础研究阶段。在现有突破的基础上,该算法仍需不断改进和优化,以解决一些已知的缺陷,如识别从完整图像合成的图像。此外,现在只能逐帧识别视频。

  不幸的是,一英尺比路高,一英尺比魔法高。目前,“人工智能反黑生产”的技术成果仍然落后于人工智能技术应用于“黑生产”的步伐。一位人工智能行业从业者透露,“这完全可以理解,毕竟(这些技术)的主要好处不仅仅是商业上的”。

  人工智能的发展需要大量的数据。此前,媒体报道称,一个不可思议的现实是,许多人脸识别公司甚至购买人脸数据,以便在没有数据的冷启动时期生存下来,中间商手中的人脸识别数据往往被其他技术公司或数据标签公司多次获得。

  技术是中性的,但使用它的人不是。

  可以预见,人工智能技术的发展与个人信息保护之间仍将存在长期的、有争议的对抗。然而,通过颁布法律、技术进步和市场调整,预计未来将发展一种更加平衡和稳定的关系。



分享到:


相關文章: