科技云报道:人工智能伦理规范难题如何走出困境?

“人工智能可谓是21世纪最有前景的新兴技术之一,其在自动驾驶、语音识别等方面已经取得了诸多重大突破,但在其商业化应用过程中也出现了不少意外的负面后果,其中浮现出的人工智能伦理风险,为技术健康持续发展和商业化落地带来了新的挑战。”

科技云报道:人工智能伦理规范难题如何走出困境?

路易斯维尔大学罗曼(Roman Yampolskiy)教授发表的《人工智能和网络安全:人工智能的失败》中列举的人工智能失败案例中,除了我们熟知的特斯拉自动驾驶事故,还有一类特别的“道德”事故,像谷歌搜索中出现的黑人与色情、暴力信息相关联、保险公司利用脸书数据预测交通事故率等失败案例,让人工智能引发的道德风险开始引起越来越多人关注。

人工智能道德风险 归因于人类认知能力局限

坚持“技术工具论”的人会说人工智能不过是个产品,怎么能具有伦理属性,而还有一部分被称为“技术实体论”的人也坚持说人工智能有能力也有权利具有自主意识和情感。不论孰是孰非,争论本身就代表着伦理道德风险的存在。

人工智能反映出的道德隐患可以从两方面归因。第一可以归结为人工智能系统在算法设计和学习阶段的错误,第二可能源于人工智能技术结果难以预见和难以以人力量化评估的问题。但究其本源还是人类的有限理性所致。

人类自身认知能力的限制,使人工智能越来越近人甚至在某些方面远超人类时,人类理性已经开始滞后于人工智能的发展速度。最终引发了对人工智能的担忧和道德批判。

而在算法的世界里,人工智能没有能力担忧,或许他们也并不感到担忧,甚至在他们“看来”,人类的某些道德是多么的荒谬。这种未知性也更加深了人类对人工智能道德伦理的担忧。

科技云报道:人工智能伦理规范难题如何走出困境?

人工智能伦理待规范 责任主体权利归属难

人工智能技术可以说是第一个对人文伦理产生挑战的技术应用,他极可能或正在重塑着人类的社会秩序和伦理规范。

对于人工智能的伦理问题,目前学界关注的重点大多集中在技术应用的责任伦理上。随着人工智能自主能动性的提高,技术使用和监管责任才是最突出的伦理难题——如何确定人工智能技术活动机器后果的责任主体,是人工智能发展必须考虑的问题。

这方面问题涉及到哲学伦理,因而很难被大众讨论。但人工智能表现出的伦理问题,却也与普通人的日常息息相关。

譬如虽然人工智能在速度、精度等方面远高于人,但在大数据运行过程中常会出现算法偏差和歧视问题,像在谷歌搜索中,相比搜索白人名字,黑人名字更易与暗示犯罪、暴力的广告和内容相关联。

在责任主体方面,虽然“机器比人聪明”并非机器替代人类掌握控制权的充要条件,但这一优势也高度反应了智能技术中人类主体权利的隐忧。人类为自我负责源于自我决定权,同时意味着自我风险、行为后果的承担能力。

以自动驾驶汽车为例,人工智能驾驶的汽车拥有自主决定权后,可以有效避免醉酒驾驶、疲劳驾驶等不合法人为错误。

但相应责任转移给人工智能算法后,当智能汽车面临无人驾驶版“电车难题”时,人工智能应该杀掉少部分人保全大部分人,还是仅仅保护车内人员安全等等困局,都难逃责任主体权利归属的拷问。是“技术漏洞”还是“使用不当”抑或是“算法”擅自所谓,这一问题至今无解。

科技云报道:人工智能伦理规范难题如何走出困境?

开发伦理嵌入技术 应对人工智能伦理风险

关注人工智能技术带来的机器伦理问题,提升人工智能技术的安全性。首先在技术层面,未来可以通过嵌入伦理准则,制定完善设计原则等方式,规避人工智能潜在道德风险。

美国科幻作家阿西莫夫的“机器人三定律”经典地诠释了机器人所应遵从的基本道德规范,在《我,机器人》中,机器人被集体嵌入了道德定律,以此规范人工智能的行为。而在现实中,人工智能的道德也是可以被预设的。

虽然道德嵌入技术暂未实现,但其一直被视为人工智能伦理风险规避的主要手段。社会学家布鲁诺·阿图尔称其为“将装置道德化”,将道德规范对人的约束转变为对物的“道德嵌入”。

除了加紧对道德嵌入技术的开发,还要在设计环节增强道德风险意识,在设计之初预测和评估人工智能产品可能引发的道德危害,从设计源头进行规范。现今暴露的诸多人工智能道德失范问题,实则也是算法设计的疏漏。

尽管对于人工智能技术,还有很多未知领域等待我们探索,但最重要的是必须坚持以理性、积极的心态应对人工智能带来的技术革命。正如兰登·温纳在《自主性技术:作为政治思想主题的失控技术》中所说的,“失控不是技术本身的错,只是人们想象泛滥疑惑勇气的缺失。”


分享到:


相關文章: