如果让将机器人设置好完整的法律程序,让它们来当法官,会不会很公正?

Ac248842091


当然不可能,至少在可预见的将来都是不可能的,但电脑或人工智能是非常有用的帮手。

一个很简单的道理,法律是社会科学,很多时候没有标准答案,杀人一定是死刑吗?协助自杀正当防卫之类要怎么办?有人说那把影响因素也输入呀,可法官的工作就是考虑要不要把这些因素考虑在内,所以起作用的仍然是法官,而非电脑。

律师欺骗法官其实不容易的,但如果判案的电脑,我觉得骗电脑其实更容易。

法律是社会科学,还有心理学美学史学之类的都算是社会科学,都没有标准答案的,电脑都很难取代。


王征全律师


这个问题很有趣啊。

客观上说,机器人真做法官了,可能会有如下好处

第一,不会情绪化,不会有太多主观因素干扰,那么自然比人理性,这是毋庸置疑的。

第二,不会疲惫,因为精神状态不佳犯错,这样会提高工作效率。

第三,只要设置恰当,可以旁类贯通,且知识上绝对无差错,那么自然会降低一些不应该的误判。

第四,人类有太多人性的弱点,机器人不会去贪图荣华富贵,可能会廉政的多。

但是是不是就会更公正呢?

个人认为,就要看大家对公正的理解了。

如果说,公正完全指的是一切依靠法条和程序来,不需要顾及受害人的情绪,行凶者的背景故事,社会的影响,舆论的状态,那么自然机器会比人公正。

但是如果公正是指,即使同样都是杀人犯,我们总会有恻隐之心,区分恶劣,照顾受害者情绪,那么机器当然不会有那么一点点法官的个人主观情绪。

个人认为,法律是冰冷的,需要不偏不倚,但是法律也是需要温暖的,有时候也需要一些人文主义的关怀,有一些人之常情。

昆山案,如果是个机器人判定,我想最终也许不是你们想看的结果。

另外,机器也是可以人为干涉的,程序毕竟也是人设置的,法条最终也是人定的。

因此,最终所谓的公正,离不开的是每一个环节。

一个社会,随着技术的发达,我相信很多行业的确都会慢慢的能够被机器取代,律师这个职业也是,人脑哪有机器记得多,记得准,记得块。

这也许是大趋势,但是我想,公正本身还是无法依靠机器来完成的,因为机器的背后永远都是人。

人心如果坏了,操控个机器还不是容易。


廖彩琳律师


答案是可行的。

尽力排除人的干扰是法制的终极追求,那么让机器人来审理案件无疑是公正的体现。

人类制定一系列的法律法规不就是为了惩戒恶行,宣扬正义吗?可法律是无情的,人确是有血肉,本性也会有弊端。所以真正公正廉明的法官是很少的,别忘了法官也是官。官当久了,官僚主义、形式主义很容易就滋长出来。

因此为了避免法官的私心,以前的解决办法就是尽量的完善法律条文,使精确和细致化,以此来降低法官的腐败和法官的权利,用法律来审判。想想看,细化条例是为了遏制法官的腐败,既然如此,那还不如直接用人工智能来当法官。

其次,专门跟法律法规打交道的群体——律师。说实在的,律师这个群体其实最考验人性了,因为他们知道哪些事在法律流程上是合法的,可却不道德;相反他们也知道哪些道德的事,在法律上却不合法。

如果法官不再是人类,那么律师们更多的是把精力放在如何跟法律斗智斗勇,而不是跟法官。这样一来可以不断的完善我们的法律,也会不断地促进律师团队。这样一来,律师会有一个更加重要的工作,这也是现在我国普遍缺少的,那就是知法懂法。

为什么中国公民对法律的了解度如此低,因为我国人口如此多,每天的各种案件如此多。以至于公民只有在被告或原告的时候才会对法律有一些了解。也才知道原来自己做得这些事为有违法律的。

哪怕人工智能在审判中的定位只是辅助,只是分析类案推送、偏离预警等工作,也会很大程度地降低法官的负担,提升透明度和效率。

一些人排斥人工智能是因为目前的人工智能仍不够智能,它们无法替代人类做价值判断。但技术都是一步一步取而代之的,而不是一步登天。

更多优质内容,请持续关注镁客网~~


镁客网


明确告诉你,不会。按你的提问就知道你法律丝毫不知。法律是对个案的解释和延伸而形成的,同样是杀人,法律规定有多种量刑方式。比如,刑法第48条 死刑只适用于罪行极其严重的犯罪分子。对于应当判处死刑的犯罪分子,如果不是必须立即执行的,可以判处死刑同时宣告缓期2年执行。

死刑除依法由最高人民法院判决的以外,都应当报请最高人民法院核准。死刑缓期执行的,可以由高级人民法院判决或者核准。如何界定这个犯罪分子所犯之罪是不是极其严重?如何判定是否必须立即执行?如何确定到底缓刑2年还是3年?

另外题主还不了解而今的人工智能,所谓人工智能,是指机器的深度学习,从而作出相近的判断。至少目前的技术是根本无法做到精准判断的。所谓深度学习,指的是向机器灌输无数案例和计算方法。比如现今非常流行的人脸识别,规定一张人脸的128个特征的3D数值,通过相对固定的计算方式,从两张照片中求出近似值。打个通俗易懂的比方,一个人的鼻尖最高点实际参数为,32 78 56,通过算法正面识别值为31 78 50 ,从而得出近似值约为98,就是通常说的相似度。但机器并不知道他们是不是同一个人,需要人为给出一个界限,比如相似度90以上为同一人。所谓深度学习就是,当这个人侧脸的时候,获取的参数为32 78 x ,机器会通过以往识别过的第三参数求平均值来补充这个人缺失的第三参数。同一个国家甚至同一个洲,人脸参数差别都不会太大。所以已知一二参数加上模拟第三参数,可以得出70%左右的相似值,再加上其他点位的参数佐证,基本能获取80-95%的相似度求得是否为本人。

说这些只为讲明人工智能原理,以上参数均是举例使用,不是实际数据。

也就是说,所谓人工智能,至少目前看来只是以后记忆力完美的人工智障。人工智能也永远不可能做到像美国电影那样,可以有自主知识甚至操纵人类。公正不偏私是可以的,毕竟它是机器,没人和谁关系更好的可能。但它确实不知道怎么去判断一个罪犯到底该判多少年。看电影,请用些脑子。

-------人工智能企业技术主管权威发布


活的不如一呮狗


看过三体作者刘慈欣写的一篇科幻小说:某个高度发达的外星文明前来地球,结果来的不是入侵而是逃荒,原因是几千年前他们就实现了机器人执法保证法律的绝对执行力,机器人拥有绝对执法权。他们实现了机械化生产,工人无人招聘,工人通过劳作获得报酬成为第一批反抗军,但是拥有绝对执法权的机器人消灭了叛乱。剩下了都是有钱人了吧?都拥有自己的公司和地盘,但是更有钱的人合法的继承(或者说购买?)他们的公司。(更有钱的拥有你没有的东西你就要购买吧?)最后他们星球所有的财产都合法的属于一个人,其他人出了家门就是那个人的地方,而绝对执法的机器人就会把他们遣返回自己的房间,最后他们卖掉了自己最后的房子无处可去,机器人根据法律把他们全部当成非法入境者全部逐出星球。小说是夸张的手法,但是道理差不多,如果你说不让机器人拥有绝对执法权或者在法律法规里面留后门,那么他和人为执法的差别最多是降低工作强度


名字到底能多长长长呢


首先从结论上来说,我认为不论再高性能的机器人登场,也不能够让机器人进行法官判决,最多是让机器人进行判决辅助。因为机器人不拥有感情,没有心。司法除了需要考虑到现存的法律规范、知识、过去的先例、学说研究之外,还需要顾及到社会公平、正义,需要感知受害人或者群体的情感。如果真的有那么一天,或许那将是机器人统治人类之后!

社会原本就是一个“人”组成的团体,既然是人组成的,那就有各种思想的汇集,法律也是这种思想上升到一定境界的集合体,可以说是“道德”的升华。比如不能够偷盗这件事情,如果人人认为偷盗无所谓,那么这个社会每人都是“神偷”。如果此时判决出现偷盗有罪,那么会有很多人觉得不妥。再举个例子,有人因为要赡养父母,而去偷盗,如果不去这样做,家中的父母就会被饿死,那么如果这样做了就属于触犯了“法律”。这个要如何判决?相信设定好的机器人只是通过理性来看待,而忽略了感性的因素。担当司法判决的人,通过感知社会上不同的情况,以法律为准绳进行“人为”判决,这点是电脑永远也无法担任的。

部分文章介绍:

《日本制造业“晚节末路”:真的只能沦为下游供应商?》

《雷克萨斯豪车随意换!丰田即将推行新业务,汽车界变革来临》

《年年亏钱,索尼为何还要坚持做手机?背后是老谋深算》


日本二三事


机器人设置完完整的法律程序,开机上电自检,就会程序混乱,宕机。

我们的法律不完善是社会人皆知的,不然不会有那么多人贪污受贿,图财害命。一个机器人法官的存在肯定会被坏人利用,而且利用的很彻底。真人法官,贪污受贿还得分人看情况,你的官级不大,势力不足,受贿底气都不足,审判时还要看双方的势力财力,法官也是人,也要过日子,也有想平平安安的生活,但是机器人法官就不会了,不用担心会被害,被要挟,不用担心家人的安全,只要势力要求设置弄死人的审判程序,审死个人都不会带一点怜悯心的,可以说是“说死人就死人”,危害性比枪支还可怕。

那么,没有这种势力要挟的存在参与,机器法官就真的公正吗?仍然不会,原因在实际案件情况的复杂性,法律再完善也不能全部列举穷尽所有的特殊情况,而且每一件案子都具有特例性,都不尽相同,真人法官都会头疼的问题,机器人也会出现运算失常。

对于法律公平这件事,是最能体现人性的。机器就是机器,它没有人性,机器可以干的是不需要掺入人性感情的工作,比如流水线、搬运工作等等,像法律审判、感情调节等等融入感情人性的高级工作,机器做不了。

但是,利用真正具有人类感情意识的机器人进行法律审判,这将不是法律是否公平的问题了,因为你无法知道机器法官芯片里到底在想干什么,是否他比真人法官怀着的心理还要恐怖一千倍,这将是一个恶魔,有着人类的情感,却不用担心家人的安危,“他”的所有优点就是我们的危险点。“他”可以无限控制情绪,不会情绪化,他可以激怒你,然后告你污蔑法官,判你的罪过,“他”可以不接受贿赂,“他”可以不顾家人,它的设计者,“他”可以假装同情你,利用你,等等,曾经我们能想到的整人损招,他都会想到。

每一个生活在“他”周围的人类时刻都在他的审判中。

所以说,一台机器,不智能就不能够充当法官,一旦智能了,又是人类的心头病。法律与公平这个事,还是人类自己关起门来互掐比较好,不要让恶魔掺进来。


快乐剪影


所谓法就是人类社会对于人类行为进行约束的条约,所谓律是人类在从事生产活动、生活活动中要遵循的法;两个字合起来称之为法律。从这一点上看法律一定是人来指定的规矩,也是只有人类才可以理解的条约并应该由人类来执行和遵守的规矩。除了人类以外至今还没有发现任何能够称之为法律的东西。AI技术如果在法律上应用只能存在两种情况,一种是人类给它设定法律责任让其去判断人类行为对与否从而应用法律条文来做出决定;第二种是AI技术本身根据自己认定的科学依据作为标准对人类的行为的对错予以判定。第一种最大的问题是AI技术是否可以完全理解人类赋予它法律条文的解释意义,也可以说AI技术是否真的能够理解人类的法律条文从而对这些行为做出正确的判断。就现阶段的发展状况,这种充分理解显然是不行的,我们人类自己还可以对同样条文做出不一样的解释呢,何况机器。所以第一种应用显然不可以实施。

再说第二种,机器根据自己的理解设立条约,机器的生产原理本身就是人类的产物,人类对科学还没有达到百分之百的前提下,机器的认知就不可能是百分之百的正确的,一个不是完全正确的法律条文去约束人类的行为显然也是一种悖论。所以第二种方案也不可实施。综上所述,让机器当法官就现阶段是绝对不可以的。至于以后会不会那就不知道了,因为人类还在进化,机器还会推陈出新,社会还在进步,是否又一天机器法官能够出庭也未尝不可。这就是答案。谢谢阅读


能量平衡德行天下


不要把人工智能想的太完美,首先我们都知道,法律推论的一个过程就是,大前提加小前提,等于判决结果,大前提就是法律规范,或者说法律规定,比如说,按法律规定,故意杀人的处什么什么,有期徒刑,无期徒刑,死刑,这就是法律规范,也就是大前提,它规定了什么情况下会被判处什么样的刑罚,小前提就是事实,这个事实就是是否成立杀人,最后到最后的判决结果,是否成立是故意杀人罪其实。似乎很简单,其实所有的事情,都貌似很简单,比如说,如何把大象装进一个冰箱里,我们可以说,很简单啊,打开冰箱,把大象放进冰箱,关上冰箱门。这不是很简单吗?到我们都知道问题的关键不在于此,法官判决的难点也不于此,它的难点就在于我们如何认定一个人是杀人,如何认定他是故意的、不构成正当防卫、紧急避险、具有期待可能性等等,比如故意,怎么判断,机器能判断吗?机器怎么判断故意呢?你让一个程序员,他怎么写程序来,让机器判断他是否是故意呢?我们先看看学理对于故意的判断,明知道会发生某种结果而追求或者放任,那么如何判断明知呢?他又怎么判断他的追求或者放任呢?这些机器他都不能判断,人工智能也不能判断,你就算告诉他1万种,明知的情形,他依然不知道,1万第10001种的情形到底是不是故意,那么人工智能,在这种情况下,他有什么用呢?

----------------------------------------------------------------------------

我前面的回答是用语音输入的软件自动打出来的,目前人工智能连语音输入都不能很好的理解人的停顿,语境这些,你让他去理解人与人之间的纠纷?很多人的回答都先预设一个立场,人工智能是无所不能的,然后再以人工智能的优点去批评法官的短处。如果是这样的话,别说法官,世界上所有的职业都不应该存在。

建筑工人可能会偷懒,让无所不能的人工智能代替吧!

农民卖的菜可能有激素,让人工智能种菜吧!

餐厅可能有地沟油,让人工智能代替吧!

最后的最后,为了正义,消灭人类这种丑陋的生物吧?


lyn1123


关键是人类未必会放弃自己的控制欲,还因为机器不可能一步到位的完成自己的使命,要在不断的试错中找到可行的运行方式。再则还有魔高一尺,道高一丈之说,现在能做到的只是在统计上的概率比较,司法上的陪审团制度,是为了让古板的律条和时代的背景更同步,使法律起到更重要的惩戒作用,建立统计学上的机器审案判决,会和社会的当下处境脱节的。大数据被神话了,因为它假设的条件都是变化的,而不是它希望的不变化的,也不可能是不变化的。就算人工智能到了可以自主思维的程度,又难以想象它的思维就是如人类一样。真一样了,就应该有人类不完美的缺陷,必要性就只是判案的成本了。真比人类完美了,又是无法想象的,完美的人类又该是什么样的?完美的法官如何对待不完美的社会和犯罪行为?完美就是我们以为的排除所有负能量的正能量。一个充满正能量的社会还是不可想象的,正能量的社会不存在,却要有一个正能量的法官,它肯定又是百分之百的脱离社会的,结果又难免是无事生非了。如果一个具有独立思考能力的智能机器人法官,它的独立是建立在数字上,是无情感因素的,那么它理解的世界就是另类的,情感是种生存内在情绪表现,它是人类感官的反应,又是生存需要的判断决定取舍。数字没有这些人类的属性具有的因素,数字运作下的结果未必就是人类能理解的结果,世界到底是数字的还是人类感官以为的?我们用数学解释世界,是发明了数学的方法?还是发现了数学的存在就是原本的世界本源?如果是这样,人类只是人类自己的一个认识世界的切入点,未必就是真实的客观世界。而机器也许又选择了一个不同于人类的切入点,纯数学的直达客观世界的本源。当人类把自己已知的数学知识交给机器,机器就按数学的方式去认识世界,而不是人类的感官和感受。如果数学是客观世界的本质,两个不同“物种”看到的世界一定是不一样的?还是一样的?大概我们会更会以为是不一样的,甚至深信肯定是不一样的,人死了是世界就不存在了,还是人不存在了?我们坚信的又是后者。一个是感官的,一个是数学的,就算有了结果,还有一个人类可以读懂的问题,客观这个谜团太大了,如何的互相交换各自理解的问题,又是一个更大的问题,人类相信客观又做不到客观,所以永远的在哪自圆其说,自娱自乐。像洞穴中的蚁群一样,只有智能机器人也许会帮我们搭起一座走向客观的桥梁。如果让它做一个法官,也太委屈了这位天才,法律和科学比较之下就太市俗了。它的最大企图一定是想着怎么去告诉人类,自己理解到的那个客观世界,也许只能是数学的,不能是感官的立体的,关键是如何还能让人类能“看到”一个不一样的客观世界,或者彻底的颠覆人类的认知,只相信和依赖感官,而把逻辑只作为一种手段,也许客观只是逻辑的,如此应该更相信客观只是数学的。


分享到:


相關文章: