人工智能会面临哪些法律问题?

硅发布

人工智能的关键特征(即无人操作,具有适应性学习和决策能力)对社会构成了特殊的风险。这要求向开发者提供更高的法律清晰度,其目的不是扼杀创新。相反,开发商明确的“游戏规则”将允许创新者蓬勃发展,同时通过适当的监督和问责制平衡社会风险。

人工智能的性质造成了一系列法律问题。但是,现行规则的更新将需要一些时间。目前,在这些合法的灰色地带开展业务对于开发商来说将是一项挑战,有5个方面的问题是最前沿的:

  1. 数据隐私:开发具有决策能力的技术通常依赖于对个人信息的巨大分析。此外,它在社会中的使用往往非常复杂,以至于用户不知道正在收集或生成什么数据。这会触发各种数据隐私风险,例如:
    • 透明度和同意:人们是否意识到他们的信息如何被用来开发人工智能?他们是否同意使用它,或者将他们的信息匿名化?考虑到AI的复杂性(以及不可预测性),目前获得用户同意(即具体和知情)的门槛是否真的可以实现?
    • 大数据和目的限制:在大数据分析的背景下,目的限制的概念(即将数据用于收集目的的限制)是否现实?
    • 监测和分析:个人对隐私的期望是什么?公司使用收集到的信息应该受到什么限制?这种期望通常取决于上下文,例如通过GPS密切跟踪位置已被普遍接受,但通过家中的智能设备跟踪行为或健康可能引起更大的关注。
  2. 网络安全:AI系统上存储的大量信息使其成为网络攻击的主要目标。应该应用强大,详细和经常测试的安全标准。这应该考虑到存储数据的数量和敏感性,以及系统受到攻击时可能对公司和个人造成的潜在危害。
  3. 人权与道德:开发人员现在要决定道德“代码”适用于人工智能。例如,自动驾驶汽车在碰撞情况下应采取哪些步骤?它是否会危及乘客过马路的乘客?受影响的人数,这些人的年龄或他们对社会的价值应该给予多少加权?这些问题很复杂,也很主观。增加参与定义这些参数(例如商业,政府,法律)的不同利益相关方的数量将有助于提高对该技术的信任度。
  4. 知识产权:通过大量的人工智能研究和开发投入,面临的挑战是确保法律框架能够使开发人员得到公平的补偿和保护,例如,确保作者身份的版权法涵盖人工智能创作的作品。
  5. 责任:在自动驾驶汽车引起的第一起死亡事故之后,今年早些时候,人工智能系统故障责任分摊的标准已经提上日程。目前的法律框架是基于让人类对自己的行为负责。但是,在AI系统发生故障后,如果有人受伤,谁将被视为负责; 设计师,制造商,程序员还是用户?公司必须遵守合同和用户条款和条件的保护措施?保险业将如何适应?

硅发布

这个问题我个人觉得问的很深刻。它既面临着科技的挑战,又面临着法律进一步界定等诸多问题。人工智能是个新鲜深刻的发展话题,它一方面带给人类进步文明,另一面却将使个人的隐私和自由变得非常脆弱。在一定程度下,人在科技面前变成了一丝不挂的透明体。举个再简单不过的例子,你百度一下自己的信息,瞬间会弹出许许多多的关于你目前的工作、学习、家庭、学术、业绩、照片等等。当你看到这些你自己都会惊讶的大惊失色,你会说我没有授权别人要这么做。在你明白了这是人工智能带来的便利便捷的同时,我该如何的去面对。基于深度学习的人工智能需要收集、分析和使用大量数据,这其中有很多信息由于具有身份识别性,属于个人信息。基于目前,我只能提醒大家按照个人信息保护方面的法律规定,这些行为应当取得用户明确、充分且完备的授权,并应当明确告知用户收集信息的目的、方式手段、内容、留存时限还有使用的范围等。但是现在,这种个人授权已经非常脆弱。比如,人脸识别。相比指纹等其他生物特征数据,人脸的一个巨大区别就是它们能够远距离起作用。只要有手机就可以拍下照片,供人脸识别程序使用。这意味着我们的隐私可能遭受更大损害。


分享到:


相關文章: