AI是否像创造者一样有偏见 为何要组建具有多样性的数据科学团队

文 | AI国际站 唐恩

编 | 艾娃

在科学文章,历史书或一组调查结果中找到的信息,似乎只是客观事实的集合。如果数字来源合理,应该被认为是观点,观点或偏见所掩盖的硬道理。实际上,这种情况很少发生。这就是AI可以像人类创造它一样受到偏见的方式。

AI是否像创造者一样有偏见 为何要组建具有多样性的数据科学团队

数据仅与用于获取数据的手段,用于解释和分析数据的方式以及如何进行通信一样好。

这些方面的误区会过滤掉我们根据数据得出的结论,并经常导致我们希望我们的“事实”避免的主观性和偏见。

即使是像调查这样简单的事情,也有许多因素(从问题的措辞到我们定义术语的方式以及我们评估形成判断的样本集的方式)可能会给我们的数据带来偏差。偏差会影响我们得出的结论。“我知道有一句谚语说:“犯错是人的本能,但人为的错误与计算机尝试执行的操作无关。”—阿加莎·克里斯蒂(Agatha Christie)

缺乏人类感觉,意识形态和偏好的自动化系统和人工智能有望帮助我们避免人类推理固有的主观性和偏见。但是,人类必须设计和构建这些系统,这使它们面临同样的陷阱。

事实仍然是,人工智能的偏见已成为一个广泛的问题,以至于Salesforce最近在其教育平台Trailhead中增加了一个人工智能偏见课程,以向企业家和其他专业人员传授同质数据的危险。

AI是否像创造者一样有偏见 为何要组建具有多样性的数据科学团队

AI偏见的后果

自动化系统中的偏差已经对某些群体产生了不利影响。例如,威斯康星州试图在其法院系统中利用人工智能来确定犯罪分子再次犯罪的可能性,以帮助法官确定量刑或假释。

不幸的是,该计划对有色人种有偏见,并错误地将黑人标记为比白人更容易犯下另一项罪行。

同行评审研究如何?

在另一个案例中,一项经过同行评审的研究确定,亚马逊的面部识别技术很难识别肤色较深的女性和个体。这怎么发生的?训练集(输入到系统中以教授AI编程的示例数据)缺乏多样性。

法院摘要

公司的数据提取软件有多种用途。这样的目标之一是为法律专业人士总结法院案件。为了使程序能够提供准确的摘要,培训集必须包括广泛的案例类型。例如,如果仅针对侵权案件对系统进行培训,那么在总结刑事案件方面效率将大大降低。

机器学习AI-以及其他难以发现的AI学习。

这些示例说明了基于机器学习的AI系统的破坏性。当用于设置它们的数据不能充分代表他们正在研究的内容或比他们尝试评估的情况差的多时,结果可能是不幸的。但是,人工智能的偏见并不总是那么容易发现。

例如,在商业中,使用有偏见的数据集可能导致领导层注定注定要失败的项目。当项目不可避免地失败时,执行团队可能会把责任归咎于应该首先依赖计划的错误假设。

人工智能和自动化技术可以为企业带来巨大的好处,尤其是那些依靠技术来完成需要团队合作的公司。

但是,如果该技术的构建方式无法防止引入不良数据(或扭曲有用的数据),则弊大于利。对此问题的一个建议答案是鼓励数据科学家团队之间的多样性-那些构建我们所依赖的AI系统的科学家。面临的挑战是,我们并不总是识别并促进正确的多样性来解决我们的偏见问题。

AI是否像创造者一样有偏见 为何要组建具有多样性的数据科学团队

多样性比

在招聘数据科学家时,实现我们通常认为的多样性(种族和性别差异)是不够的。

多样性的价值。

当然,由不同种族,宗教和文化的男人和女人组成的劳动力很有价值。但是,这些领域的多样性仍然可能导致AI产生偏差。

例如,来自世界各地的男女团队可能会建立一个差距很大的系统;例如,他们都可以使用相同的教育框架进行培训,或者分享与所讨论的项目或问题相关的相同个人观点。

如果人们来自同一文化,社会经济背景和政党,那么他们可能会采用非常相似的方法来解决数据问题。这些区域的同质性将不可避免地渗入开发团队创建的AI系统。

避免偏见。

为了避免AI偏见,我们需要从思想和观点出发,而不是仅仅从肤色和性别表达出发,考虑多样性。看起来不同的人也很可能会有所不同,但是并非总是如此。

实现多样性

人类不可能完全避免主观偏好,错误的信念以及我们思维过程中的各种漏洞。因此,消除偏差也不太可能。但是,我们仍然可以采取一些措施来减轻我们的偏好(认为偏见)对我们创建的系统的影响。

思想的多样性是一个很好的起点。为了组建具有正确多样性的数据科学团队,招聘经理必须专注于寻找具有独特观点和非常规想法的人员。

这些不同的态度,观点,概述和客观性通常来自新颖的经验和非常规的训练。当然,这里的挑战是,经理人不能在面试时询问应聘者其社会经济背景,年龄,文化背景以及宗教和政治信仰。

AI是否像创造者一样有偏见 为何要组建具有多样性的数据科学团队

如何使您的团队和所有员工多样化。

他们所能做的就是问一些与潜在员工将从事的工作有关的尖锐问题。例如,为候选人提供数据建模项目的示例。询问他们如何解决问题,收集数据并进行分析。如果您已经有团队成员愿意使用方法X和Y来处理此案,则如果候选人提出了一种经过深思熟虑的方法Z,则认为这是有利的。

个人的自信是另一个关键因素。

如果某人发现问题时不愿意大声说出来,那么增加他们的思维方式对您的团队不利。为了避免在分析系统和AI工具中出现偏见,您需要的候选人不仅要拥有独特的观点,还要知道如何表达它们。最后,在您的技术开发和数据科学团队中培养开放性和协作文化非常重要。当他们可以轻松表达观点时,他们可以发现并纠正错误。

切记:当团队拥有一个尽可能客观的总体目标时,过程中的偏见就会降到最低。

人工智能和自动化技术正在兴起,这些系统有望帮助最大限度地减少人类主观性和偏见的影响,同时提高我们的效率和生产力。但是,要实现此目标,必须非常小心地构造它们。

AI是否像创造者一样有偏见 为何要组建具有多样性的数据科学团队

要谨慎前进-我们必须非常重视多样性。雇用数据科学家和系统架构师时,这不仅仅是简单地关注表面。领导者需要更深入地挖掘,努力引入不同的观点以及可以表达观点的人们,并支持包容性的发展文化。具有不同想法和协作结构的团队更有可能构建能够真正超越人类自身要消除的偏见的AI系统。


分享到:


相關文章: