美国陆军开发人工智能无人机 让其自主掌控“生杀大权”?

无人机掌控“生杀大权”的时代已经来临?!日前,美国陆军宣布正在开发首架可以使用人工智能(AI)发现和瞄准车辆及人员的无人机。现阶段,军用无人机仍由人类操控,但这项新技术将使得无人机在没有人类参与的情况下自主决定攻击目标!一旦成功应用,这也意味着人工智能的最终军事化,而且将产生巨大的法律和道德影响。战争的范围也可能进一步扩大,使得打造人工智能的公司、工程师和科学家成为有效的军事目标。

美国陆军开发人工智能无人机 让其自主掌控“生杀大权”?

无人机操作员

当前美国军方的致命军用无人机、如MQ-9“死神”,都需要精心操控并通过卫星驾驶。如果无人机需要投下一枚炸弹或发射一枚导弹,人类传感器操作员会使用激光将其引导到指定目标上。最后,无人机机组人员对杀死指定的人类目标担负道德、法律和操作责任。正如一名死神无人机操作员所说:“我很乐意让一名叛乱分子逃跑,无论这个目标有多重要,这样就无需采取可能会杀死平民的危险射击。”

即便美国军方频繁地使用无人机进行攻击,人类的情感、判断力和道德依然与战争紧密相关。无人机操作员罹患精神创伤和创伤后应激障碍也表明了远程杀伤的心理影响。有观点认为,如果无人机能够自主投下炸弹,机组人员的心理问题就可以避免。人类无需为杀戮负责,还能使敌人受到伤害。然而,情报专家和其他军事人员都会定期分析无人机袭击画面。研究表明,频繁观看极端暴力的图片也有可能造成心理伤害。

美国陆军开发人工智能无人机 让其自主掌控“生杀大权”?

MQ-9

完全自主的无人机可能从根本上改变军事杀戮背后的复杂过程和决策。但是,法律和道德责任并不会因为人类的缺席而消失。相反,责任将落到越来越多的其他人身上,包括人工智能科学家。

自主无人机武器系统的使用将使得开发人工智能的公司成为敌方攻击的目标。举例来说,如果谷歌的Maven图像识别AI软件被整合到美国军用无人机中,谷歌公司就会与无人机“杀戮”行为存在牵连,而谷歌这样的公司、它的员工或它的系统即有可能遭到来自敌方的攻击。

美国陆军开发人工智能无人机 让其自主掌控“生杀大权”?

谷歌

从道德层面来讲,还有更严重的问题。人工智能自我学习算法的意义在于,它们能够更好地完成被赋予的任何任务。如果一架致命的无人驾驶飞机可以通过自我学习来完成任务,就需要有人确定一个可接受的开发阶段——它还需要学习多少知识——以便匹配其被赋予的任务。这意味着,政治、军事和工业领导人必须明确,在技术完善时,出现多少平民伤亡是可以接受的。如果无人机拥有了大规模杀戮的决策权,那么战争的结果便是灭亡。任何释放这种力量的政府或军队都将违反其声称捍卫的任何价值观。


分享到:


相關文章: