硅发布
人工智能的关键特征(即无人操作,具有适应性学习和决策能力)对社会构成了特殊的风险。这要求向开发者提供更高的法律清晰度,其目的不是扼杀创新。相反,开发商明确的“游戏规则”将允许创新者蓬勃发展,同时通过适当的监督和问责制平衡社会风险。
人工智能的性质造成了一系列法律问题。但是,现行规则的更新将需要一些时间。目前,在这些合法的灰色地带开展业务对于开发商来说将是一项挑战,有5个方面的问题是最前沿的:
- 数据隐私:开发具有决策能力的技术通常依赖于对个人信息的巨大分析。此外,它在社会中的使用往往非常复杂,以至于用户不知道正在收集或生成什么数据。这会触发各种数据隐私风险,例如:
- 透明度和同意:人们是否意识到他们的信息如何被用来开发人工智能?他们是否同意使用它,或者将他们的信息匿名化?考虑到AI的复杂性(以及不可预测性),目前获得用户同意(即具体和知情)的门槛是否真的可以实现?
- 大数据和目的限制:在大数据分析的背景下,目的限制的概念(即将数据用于收集目的的限制)是否现实?
- 监测和分析:个人对隐私的期望是什么?公司使用收集到的信息应该受到什么限制?这种期望通常取决于上下文,例如通过GPS密切跟踪位置已被普遍接受,但通过家中的智能设备跟踪行为或健康可能引起更大的关注。
- 网络安全:AI系统上存储的大量信息使其成为网络攻击的主要目标。应该应用强大,详细和经常测试的安全标准。这应该考虑到存储数据的数量和敏感性,以及系统受到攻击时可能对公司和个人造成的潜在危害。
- 人权与道德:开发人员现在要决定道德“代码”适用于人工智能。例如,自动驾驶汽车在碰撞情况下应采取哪些步骤?它是否会危及乘客过马路的乘客?受影响的人数,这些人的年龄或他们对社会的价值应该给予多少加权?这些问题很复杂,也很主观。增加参与定义这些参数(例如商业,政府,法律)的不同利益相关方的数量将有助于提高对该技术的信任度。
- 知识产权:通过大量的人工智能研究和开发投入,面临的挑战是确保法律框架能够使开发人员得到公平的补偿和保护,例如,确保作者身份的版权法涵盖人工智能创作的作品。
- 责任:在自动驾驶汽车引起的第一起死亡事故之后,今年早些时候,人工智能系统故障责任分摊的标准已经提上日程。目前的法律框架是基于让人类对自己的行为负责。但是,在AI系统发生故障后,如果有人受伤,谁将被视为负责; 设计师,制造商,程序员还是用户?公司必须遵守合同和用户条款和条件的保护措施?保险业将如何适应?