1. AI已经在影响性犯罪和其他刑事犯罪的刑事司法系统
最近刘强东被指在美国明尼苏达州犯下性侵重罪,华尔街、纽约时报都站出来争相报道,让人感觉好像实锤了,毕竟那可都是跑的比谁都快的WSJ、NYT啊!
然而,不知道是因为证据不足、还是执法阻力,刘强东并没有得到任何实质性的指控,就默默的回国了。甚至外交部都介入了,可始终就没有个确定的结果出来。
所以刘强东这个案件,到底东哥是被陷害的呢?还是真的做出了不应该做的事情?东哥这样的身份,这样的为人,他能做出性侵的可能性有多大呢?
前AI时代
我们知道银行风险评估有一个非常重要的判断依据,叫做“违约概率”。顾名思义就是一个人如果来跟银行借贷后,违反合约不按时还款的概率。通俗的讲,就是一个人成为老赖的概率。
所以在司法机构方面,是不是也可以有一个犯罪概率呢?还真有!当然人家是不这么称呼。
美国这样的法治国家确实一直有在做这方面的研究。而随着人工智能技术的发展,AI也早已经成为司法机关进行判断的辅助手段。
举个例子。刘强东这件事情,为什么大家愿意相信东哥做了不应该做的事情?因为刘强东有工具、有身份、有实力,有实施不可描述的事情的条件。
东哥这次,不知道是交了保释金离开,还是说警方确实没有找到任何证据来定东哥的罪呢?这都是有可能的。
美国有82%的被告在监狱中度过预审时间,是因为他们交不起保释金。而从被逮捕,到被定罪,通常需要花费半年时间。如果法官对你有偏见,你后面的生涯将会异常艰难。
半年时间,足以让你的老板变成前老板,现任变成前任。然后在你被释放后,从你的全世界路过。
现AI时代
引入AI后,首先可以消除一定的偏见。算法通过隐藏性别,种族和地理等因素的后,大家可能会更理性的看到事情,不太可能受到保释听证会或法官当天的感受影响。
其次可以提高效率。AI出报告的速度,那是一般人赶不上的。可以大大缩短在监狱中等待保释听证会的时间。
未来AI时代
人工智能,其实是人造智能。说他真的一点偏见都没有,就像计算器1+1=2一样,也是自欺欺人。之前小冰跟用户对飙脏话、OpenAI Five在比赛中发信息嘲讽对手,都表明AI其实跟人一样,也是会有偏见。
所以我们有必要更深入地研究偏见问题。人工智能系统很可能已经消除了这个特定法官的隐含偏见,但它也纳入了所训练的所有决策的总体偏差。
可以认为,随着时间的推移,随着AI的准确性增加,它可以将偏差最小化到在统计上无关紧要的程度。
然而,这一论点存在许多复杂情况。首先,这不是容易测量的东西,并且在实践中已经在现有AI系统中观察和研究了系统偏差。
2. 没想到吧,谷歌密钥的制造商来自中国
据CNBC报道,谷歌为确保网页服务登录安全而推出的新产品Titan安全密钥是由中国飞天诚信科技股份有限公司(Feitan)开发的。
谷歌目前正在与LG和三星等设备制造商进行直接竞争。考虑到近些年来谷歌一直致力于推广硬件,此次安排确实有些不同寻常之处。去年,谷歌又加大了对于硬件的投资,从HTC手中收购了大量人才和知识产权。
谷歌在上个月举办的Next云计算大会上宣布了“泰坦”密钥的推出并表示将在谷歌开发的固件上验证其完整性,不过公司并未指出这款产品的制造商。
但是这款无线密钥与飞天的一款无线密钥产品非常类似,这是一家位于北京的安全公司,于2014年在深圳证券交易所上市。
CNBC电话联系了飞天驻加州圣克拉拉的办公室,接电话的员工表示飞天在“泰坦”项目上正与谷歌进行合作。
另外一位熟悉此项目的知情人士也证实了这一合作关系。周四,The Information媒体也单独报道了双方之间的合作。
谷歌发言人表示,谷歌是泰坦密钥“名义上的制造商”,但实际上开发泰坦密钥的是不具名的第三方制造商。不过发言人拒绝回应飞天是否是密钥的制造商。
泰坦密钥不但看上去与飞天密钥很相似,而且和美国一家名叫Yubico公司的USB密匙也非常相似。Yubico的密钥可以用于安全登录谷歌的Gmail、Dropbox、GitHub和其他网络服务。
但是Yubico的首席执行官斯蒂娜·埃伦斯瓦尔(Stina Ehrensvard)在博客文章中明确表示泰坦密钥不是由Yubico制造的。埃伦斯瓦尔还对该密钥使用蓝牙一点提出了批判。
周日,谷歌产品经理克里斯蒂安·布兰德(Christiaan Brand)在博客中宣布用户可以通过谷歌在线商店获得泰坦密钥。
她还表示谷歌的固件被密封在特殊的芯片中,这些芯片是直接配送到生产线上的。“对于泰坦密钥的信任便是源于这些密封芯片,而不是基于在设备制造过程中的后续步骤。”
在泰坦密钥发布之后,飞天也在社交媒体上分享了一些关于谷歌的消息,但并未正式发表公开声明表示两者之间的合作关系。
谷歌在自己的“高级保护”计划网站上建议美国公民——如果他们没有两个安全密钥的话,可以通过亚马逊购买飞天无线密钥以及Yubico的USB密钥。但这两款密钥均不是以谷歌泰坦品牌的名义进行销售的。
3. 白白胖胖的糯米团子,专治单身狗那该死的孤独感
在Indiegogo上出现了个超可爱的蛋形机器人——来自日本的“TAPIA”。
在日本极度高龄化的社会环境下,一人孤单终老(日文里称“孤独死”)的高龄者也越来越多。
在这样的背景下,MJI 团队开发了这款搭载AI系统的桌上机器人,企图提高独身居住者的生活质量。
TAPIA 有着圆滚滚的白色蛋形身体以及一双水汪汪的大眼睛,乍看起来很像一颗巨大的水煮蛋,让人忍不住像抱一抱。而TAPIA 的可爱外表下还藏有一颗功能强大的“心”。
亮点一:安全保护
TAPIA 通过对使用者的密切观察,并与日常活动相比较,如果觉得使用者的情况可疑,她会主动进行问询,如果使用者在一段时间内没有回应,TAPIA 会立刻联系紧急联络人。
同样,如果使用者超过一定时间没有回家,TAPIA 也会向相关人员发出警报。
具备“视觉”识别与学习能力的 TAPIA 会慢慢记住使用者的生活习惯,并通过与周遭环境的互动,持续成长学习。
有了她的忠诚保护,使用者可以更安心地享受自由的独居生活。
亮点二:保持沟通
TAPIA 的感情表达系统与好感度评分系统结合,在与使用者的对话中,根据应答的内容和节奏来不断修正交谈风格,提升对话质量。
如果你经常和她对话,她也会心情变好,时不时给你讲个笑话或鸡汤什么的……
亮点三:生活助手
使用者可以通过语音给 TAPIA 下达各种指令,让她成为家里不可缺少的好帮手。
她可以帮你打电话(支持 Micro Sim Card)、进行视频通话、拍照片、念报纸、播放音乐,还可以提醒你什么时候该吃药了、今天天气情况、每日待办事项等等。
可以想象,使用者很快就会离不开她的贴心陪伴了。
4. 科学家:人工智能可以迅速发展自己的偏见
来自英国卡迪夫大学和美国麻省理工学院的计算机科学和心理学专家发现,自主机器人可以通过识别、复制、学习其他机器人的行为产生偏见,某些种类的算法已经产生性别歧视和种族歧视
歧视看似是人类社会中特有的、需要认知才能产生的现象。但是,某些类型的计算机算法已经从公开档案等人类资料中习得了性别歧视、种族歧视等偏见。
最新的一项研究甚至发现,人工智能可以进化出不同的偏见群体。
为证实人工智能可以自己产生偏见,科学家用计算机模拟博弈。博弈中,每个个体都可以将钱送给自己所在的群体或其他群体,以测试每个个体的给予策略,观察其是否对其他群体有偏见。
这一博弈由一台超级计算机模拟,其中包括上千个个体,每个个体都可以通过复制其他来自相同群体或不同群体的个体学习新的策略。
参与研究的卡迪夫大学计算机科学与信息学教授Roger Whitaker表示:“通过成千上万次模拟,我们发现了偏见是如何演化的、哪些情况可以激化偏见、哪些情况可以减弱偏见。
我们的研究表明,偏见是自然产生的、影响非常大的,它很容易被激励、损害大范围的连通性。来自同一偏见群体的保护可以非主观地引起更进一步的偏见,使整个群体四分五裂。
这种广泛传播的偏见很难逆转。”这些个体是通过复制那些有更高短期效益的个体使得偏见升级的,可见偏见并不需要高级认知能力。
在另一项关于性别的研究中,研究人员发现,微软、IBM和Face++等的人脸识别服务中存在性别歧视和种族歧视。
这些服务对于男性白人更加友好,而对于男性黑人和女性黑人错误率最高。微软在21%情况下无法识别黑人女性,而IBM和Face++有35%情况无法识别。
素材来源:搜狐科技、机器之心、人工智能头条等
閱讀更多 讀芯術 的文章