如何负责的开发机器学习-最大限度降低机器学习风险

机器学习不可避免地为自动化系统添加了黑盒子,显然存在多种关于使用ML(机器学习)是否可接受性的道德争论。我们可以通过五个简单的原则来减轻风险。

机器学习本质上是有风险的

如何负责的开发机器学习-最大限度降低机器学习风险

TensorFlow

不久之前,当谷歌明确表示已将其TensorFlow API 提供给美国国防部的Project Maven 时,就引发了争议。需要谷歌的协助来标记数小时无人机镜头的图像,以供分析师审查。

关于军事方面使用ML的可接受性显然存在道德争论。更广泛地说,还有一个关于ML的意外后果的重要辩论,其未被武器化,而只是出乎意料地行为,导致损害或损失。

将ML添加到系统不可避免地会引入黑盒子并产生风险。ML最有用的应用于超出人类理解范围的问题,它可以识别我们永远无法做到的模式。权衡是这些模式不容易解释。

在当前不完全自主的应用程序中,通常将人类置于循环中,风险可能会受到控制。您的Amazon Echo可能只是偶然订购猫粮来回应电视广告。然而,随着ML在更广泛和更关键的应用中的部署,并且随着那些自治系统(或AI)变得更快和更有效,错误的影响也会扩大 - 训练数据中的结构性歧视可以完全放大,以至于无意的对生活产生影响。

制定一些规则

如何负责的开发机器学习-最大限度降低机器学习风险

自阿西莫夫于1942年撰写他的“机器人三大定律”以来,哲学家一直在讨论如何确保自治系统免受意外后果的影响。由于人工智能的能力增长,主要是由于最近ML的进展,学术界和行业领导者加强了他们在这一领域的合作,特别是在2017年的益智人工智能的Asilomar会议上(与会者制定了23项原则以确保人工智能有益) ,通过生命未来研究所 和OpenAI 组织的工作。

随着人工智能的使用案例和风险变得更加清晰,谈话已进入政治领域。日本政府是人工智能系统统一规则的早期支持者,于2016年4月向七国集团成员提出了一套8项原则。

2016年12月,白宫发表了一份报告,总结了其在“人工智能,自动化和经济”方面的工作,该报告之前的报告是“为人工智能的未来做准备”。总之,这些突出的机会和领域需要在美国推进。

2017年2月,欧洲议会法律事务委员会就人工智能和机器人技术的欧盟范围责任规则提出了建议。欧洲议会议员还要求欧洲委员会审查建立欧洲机器人和人工智能机构的可能性。这将为公共机构提供技术,道德和监管专业知识。

英国下议院对机器人技术和人工智能进行了专门委员会调查,并得出结论认为,制定法律或监管框架还为时尚早。但是,他们确实强调了以下优先事项,这些优先事项需要公开对话,最终需要标准或法规:验证和确认; 决策透明度; 最小化偏见; 隐私和同意; 和问责制和责任。现在紧接着是Lord's Select委员会的调查,将于2018年春季进行调查。

自动驾驶汽车的领域比人工智能的许多其他应用程序更有形,似乎在制定规则方面取得了最大进展。例如,新加坡,美国 和德国 政府已经概述了自动驾驶汽车的监管框架将如何运作。这些比其他AI应用所讨论的一般原则更具体。

工业正在填补这一空白

为了应对立法者反应中存在的差距,许多企业正在制定自己的标准来处理法律和道德问题。在个人业务层面,Google DeepMind拥有自己的道德委员会和独立审核人。在行业层面,亚马逊,Apple,Google Deepmind,Facebook,IBM和Microsoft之间的AI合作伙伴关系于 2017年初成立,旨在研究和分享最佳实践。此后,学术机构和更多商业合作伙伴如eBay,Salesforce,英特尔,麦肯锡,SAP,索尼以及联合国儿童基金会等慈善机构也加入了这一行列。

标准也正在制定中。电气和电子工程师协会(IEEE)推出了一个标准项目(“P7000 - 解决系统设计过程中的道德问题的模型过程”),以指导AI代理如何处理数据并最终确保AI符合道德规范。

只要这些自下而上的,由行业主导的努力可以防止严重事故和问题的发生,政策制定者就会非常重视制定法律法规。反过来,这可以通过阻止创新被潜在的严厉规则所扼杀来使开发商受益。另一方面,这可能只是为了以后存储下意识的反应 - 事故可能是不可避免的,企业和政府的目标不一定完全一致。

负责任的AI的五项原则

作为现代AI中最重要的方法,ML开发需要遵守一些减轻其风险的原则。目前尚不清楚谁将最终施加规则,如果有任何规定的话。尽管如此,似乎已经出现了一些共识,即上述各组确定的以下原则是法律和工作实践中的重要原则:

  • 责任:需要有一个特定的人负责自治系统的行为的影响。这不仅是为了获得法律补救,也是为了提供反馈,监测结果和实施变革。
  • 可解释性需要有可能向受影响的人(通常是外行人)解释为什么行为就是这样。
  • 准确性:需要识别,监控,评估错误来源,并在适当的情况下减轻或消除。
  • 透明度:需要能够测试,审查(公开或私下)批评和质疑自治系统产生的结果。审计和评估的结果应公开并解释。
  • 公平:数据的使用方式应该合理并尊重隐私。这将有助于消除偏见并防止其他有问题的行为被嵌入。

这些原则可以共同体现在标准,规则和法规中,为ML提供框架,使其能够蓬勃发展并继续为激动人心的应用做出贡献,同时最大限度地降低社会对意外后果的风险。将其付诸实践,首先要为每个ML项目建立明确的工作范围和负责人。开发人员需要评估能够在可能的最大范围内实现可解释性的架构,并开发流程以过滤掉来自培训和验证集的不准确和不可靠的输入。这将以可以理解和信任的审计程序为基础。

这不是一个详尽的列表,需要继续辩论,以了解如何公平地使用数据以及需要多少可解释性。也不会消除所有风险,但将上述原则付诸实践将有助于最大限度地减少这些风险。


分享到:


相關文章: