人工智能不学好偏见歧视?微软新工具教那些AI如何“做人”!


人工智能(AI)无疑是当今科技重要的发展方向,然而相关的算法难免会存在社会层面的问题。由于所收集数据量不足和先天性认知等问题,人工智能算法很可能会反映出社会本身存在的偏见,和一些不公平的观点。目前,微软(Microsoft)公司已经在开发新工具,力图解决这一问题。

人工智能不学好偏见歧视?微软新工具教那些AI如何“做人”!

从《麻省理工技术评论》的消息来看,微软正在打造的工具能够检测并提醒人们注意那些根据种族或性别来判定事物的人工智能算法。

无疑,微软也是一家有能力创造人工智能的科技公司。他们正在加入谷歌(Google)和脸书(Facebook)的行列,创造工具来"抓捕"那些不合时宜的人工智能。

人工智能不学好偏见歧视?微软新工具教那些AI如何“做人”!

然而,新算法只能检测"有偏算法"的存在性并标记目标问题。这意味着,如果导致政策偏向的那些程序似乎是未知的,它们仍然可以被创建和使用。

为了真正为每个人创造一个公平、有益的人工智能,需要人们更加关注前端。

相关企业和机构可以通过引入第三方审核来解决这一问题。由第三方组织带来的外部专家将审查他们的算法,以发现代码本身或输入数据中的偏差。

麻省理工审查中提到的人工智能审计的理念在许多地方得到了重视,一些人工智能公司已经开始雇佣审计师来查看他们的代码。

当然,这种做法也有一定的要求。人工智能不能太复杂,让其他人进入这个领域并找出问题所在。或者,审核员需要精通相关代码。对于先进和复杂的系统,这种方法可能不完全适合,并且成本高。

另一个潜在的解决方案是为那些真正创造人工智能的人提供更好的培训,使他们能够更好地发现他们自己不成熟的观点和偏见,并防止这些想法被灌输到人工智能系统中,这些系统被认定为事实。

这并不是说那些编码人员正在编写一些种族主义机器。然而,毕竟,每个人的思维都或多或少存在潜在的偏见,而这些问题的积累必然会成为一个问题。人类技术将有助于我们更好地了解我们的世界观,不断改进和受益于它。


分享到:


相關文章: