AI修复的十六岁的林徽因只是意淫,专家谈AI自我修复的荒谬性

看到网上关于“AI修复的十六岁的林徽”的种种凌驾于AI之上的偏颇,实在看不下去那一副副眯着眼睛在图片背后咋舌而陶醉的面孔。只好搬出这本书《虚拟现实---万象的新开端》看看作者怎么说的。

要求AI自我修复的荒谬性

如果“新神”无法战胜“旧神”,该怎么办?也许社交媒体需要改变它们赚钱的方式。可能任何类似的做法都是在无可救药地支撑永远会被经济激励浪潮推翻的算法。

我要说的是,鉴于我们目前的科学理解水平,我认为依赖道德过滤不会有效果。这些修复行为会被玩弄,变成操纵、胡言乱语和腐败。如果保护人们免受AI威胁的方法是发展更多AI,比如所谓的道德算法,那就相当于什么都不做,因为这个想法本身就是在胡说八道,是对幻想的幻想。

目前我们还不能科学地描述大脑中的想法。也许有一天可以,但现在还不行。因此,我们现在甚至没有办法设想将道德纳入算法后会是怎样的情形。按照我们在互联网上令人惊讶的全球监视体制来看,现在所有的算法能做的就是把人们所做的拼凑起来。我们正在让很多这些自然人变成浑蛋。

为了便于论证,我们假设科技公司最终成功地用所谓的AI解决了烂帖问题。假设这些过滤算法非常成功,所有人都信任它们。但即便如此,深层的经济激励措施仍将保持不变。

有可能会出现另一种拉升奇怪流量的方法,但总体结果会是类似的。

想想美国情报人员如何发现俄罗斯情报部门干涉美国选举,这就是另一个奇怪流量的来源。这种方法不只是在烂帖,而且是将维基解密作为武器,有选择地散布信息,只伤害其中某位候选人。

假设科技公司通过道德过滤阻止了恶意的、有选择性的信息泄露。下一次道德过滤出现时可能是针对某人或某事的无意识偏执,以此锁定注意力。

如果科技公司能通过过滤预防上述种种问题,它就还会提出其他方法。我们要求算法对我们的社会有多大的控制力?算法最终会变成什么?请记住,在我们要求科技公司处理假新闻之前,我们也曾要求他们处理仇恨言论和有组织的骚扰。科技公司已经开始驱逐某些用户,但社会有没有因此变得更温和呢?

在某种程度上,即使可以实现道德自动化,我们仍有必要求助于古老的经济激励。确实有可以替代目前社会媒体经济的办法。例如,我之前也建议过,人们可以在Facebook上提供内容,以此获得报酬,同时可以购买他人提供的内容,Facebook可以从中抽成。(我们知道这可能会有效果,因为像之前所述,《第二人生》等已经尝试了类似的做法。)

毫无疑问,还有其他值得考虑的潜在解决办法。我提倡实证做法。我们应该勇敢地尝试为他人提供的数据付费等办法,同时也勇敢地接受结果,即使结果会令人失望。

我们不能放弃。

关注本号,私信可更能获得免费资料

AI修复的十六岁的林徽因只是意淫,专家谈AI自我修复的荒谬性


分享到:


相關文章: