系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

2017年2月26日,第89届奥斯卡金像奖颁奖典礼如期举行。颁发最后一个大奖时,主持人宣布最佳影片奖得主是《爱乐之城》,就在影片全体演员和制片人登上舞台接受祝贺和发表感言时,却被告知,真正的获奖作品应该是另一部影片《月光男孩》。

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

《爱乐之城》获最佳影片提名。

对关注时尚、电影领域的小伙伴儿来说,这也许不是新闻。但你知道吗?这场颁奖典礼上的失误,问题竟然在两名会计师身上。因为是他们负责统计选票,把写有最佳影片奖得主的信封递给主持人。麻烦也就在这里,信封递错了。

一个小信封居然搞砸了奥斯卡金像奖颁奖?没错,这是两位作者克利尔菲尔德和蒂尔克斯克在《崩溃》这本书中讲述的故事。这个事故中虽然没有人员伤亡,却让无数人在众目睽睽之下难堪,堪称奥斯卡颁奖史上的灾难。全书就是从研究各领域中这类灾难问题入手,总结共性,让不同行业借鉴其中的经验教训,也给我们普通人提供了学习机会。

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

颁奖典礼上的“大乌龙”,到底有什么值得学习呢?这里想和小伙伴儿分享三点:

01 越安全越出事?!

这场颁奖典礼的计票机构是普华永道会计师事务所,两名当事会计师也是合伙人,足够靠谱吧?两人在事前做了周密的计划,设想当天可能发生的意外,预案做得妥妥的。得奖信封准备两套,放在两个公文包里,两位会计师各拿一套,万一丢了,还有备份啊;颁奖当天,得考虑堵车路况,分别前往现场;仪式过程中,两人一直站在后台,直到把信封递到主持人手里。简直算无遗策,计划足够安全了。可结果怎么样呢?

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

如果说这都是人工操作,那么计算机系统足够安全吗?咱们去医院看病,往往因为医生的狂草而困惑,护士发药也可能拿错。2012年,美国加州大学旧金山分校引进了计算机系统。医生开药输入电脑,另一端由机器人按剂量取药,送到病房还有条形码系统监督,省去各种中间环节,杜绝其中人为错误的可能性。可还是有一位青年儿科医生,给小男孩开出了将近40粒药。本来要开160毫克维生素,结果填成了每公斤体重160毫克。难道系统不报警提示吗?确实有,却被医生删去了,他以为这又是一次无关紧要的提示,因为这样的系统示警实在太多。如果一定要责怪这位医生,那想想看,我们每天操作电脑,关闭过多少这样的提示呢?病房中的护士难道不怀疑吗?可病房里的条形码系统显示房间正确,病人也对,于是护士“遵医嘱”让小病人吃下全部药丸,超量的维生素让男孩儿差点儿丧命。

看看这两个案例,有备选方案,有预警提示,计划周密,环环相扣,可以说安全性很高,怎么还会出问题呢?如果把颁奖典礼和开药送药的整个环节看作一个系统,高度安全性本身就给系统增加了复杂性。正是这种复杂性让我们的安全方案和安全措施不再安全,从而引发大祸。

02 啥是复杂性?

书中引用查尔斯·培洛在他高风险行业灾难研究著作中提出的复杂性概念。这个著作来自他对三里岛核电站事故的研究,这是美国历史上最严重的一次核事故。这部耗费5年心血的著作让培洛被评为“无可争议的灾难学大师”。

什么样的系统和组织具有复杂性?高科技吗?大公司吗?并不是。你说一家大型汽车工厂中的装配线,科技含量高不高,规模大不大?可是,在装配线上,每个工作站安装不同的零件,如果一个工作站停止运作,马上出现积压,问题在哪步一览无余。这样的系统不存在复杂性。

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

根据培洛的定义,复杂性在于系统内部各方面存在相互作用、错综复杂的关系。好比我们要走过悬崖边蜿蜒的小路,路虽窄,但只要集中精力,就不会出危险。但如果不能直接用眼睛看路,必须透过望远镜不断聚焦变焦,看一眼前路,再看一眼脚下,就只能战战兢兢、蹒跚前进。面对复杂系统的时候,只能见树木,无法见森林。面对复杂系统,就好比盲人摸象。

按照培洛的解释,我们无法完全了解整个系统各部分会以怎样的方式运作和相互作用,所以也就无法准确预测任何一个小失误可能引起的所有后果。

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

奥斯卡颁奖典礼正符合复杂系统的定义,多重因素交织在一起。信封是红纸印金字,首先就让人看不清;一位会计师百忙之中还不忘在推特上发现场女明星照片;最要命的就是这两套公文包组成的安全双系统,虽然获奖结果信封准备了两套,但第二套并没有真正作为备份,两位会计师实际上是各自在向主持人递送信封,赶上谁就是谁。

医院的计算机系统也是如此,复杂的高频示警让医生无从判断哪些是真正应该注意的问题,系统消除许多普通错误的同时也增加了复杂性,过度的安全措施反而降低安全。

03 怎样转危为安?

那么,如果真像培洛所说,无法预测复杂系统中的失误,我们又该怎么办呢?

第一,诊断问题,无需预测。

现在大家都知道开车出门需要系上安全带,带小孩儿乘车要使用安全座椅。这是因为我们上路前就知道在哪段路上会出车祸,或者走到哪里会追尾吗?都不是。行车安全早已深入人心,大家都明白意料之外的事情可能发生,这从车险的接受程度上就能看出来。

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

培洛让我们认识到复杂系统中问题一定存在,关键是识别出其的中脆弱部分,明确努力方向。如果两位会计师从开始就抛开颁奖典礼“不是火箭科学”的心态,认识到整个过程的复杂性,全神贯注地处理问题,关注每一个环节,至少别在拿错信封的前一秒发推特,情况就可能不同。

第二,小蝴蝶也会引起大飓风。

巴西的蝴蝶扇动翅膀,会引起得克萨斯州的飓风,这同样无从预测。但复杂系统中各个小环节间的相互作用应该引起足够重视。比如颁奖典礼上,主持人打开信封,获奖卡片上的影片名称字体太大,而最下面一行的所获奖项字迹又太小。其实,当时其中一位持人看到卡片已经察觉不对,他想找搭档解围的时候,对方只看到了影片名称,义无反顾地念了出来。本来还可以“抢救一下”,最终却“不治身亡”。

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

这里有小伙伴儿要提,道理我懂,可现在说的应该是解决方案吧?得让我们知道怎么做啊!

其实,能够识别问题本身就是一种解决方案。管理学中有一则故事,一家工厂的大型设备坏了,怎么也修不好,负责人无奈只好重金聘请一位老工程师来处理。老人到现场一看,只在设备上画了个圈,就指出问题所在,设备很快被修复。事后,公司管理团队有人觉得这位工程师收费太高,纷纷提出质疑,“画个圈就能赚10万,这也太容易了吧”。老工程师却回答,“当然不是,画这个圈只值1块钱,剩下的99999元是付给知道在哪里画圈的。”

第三,警示只需刚刚好。

关于过度警示的问题如何解决呢?航空领域给出的答案值得医院的系统借鉴。看看以下几个问题,哪些会让现代波音飞机的驾驶舱中发出高危警讯呢?

(1)发动机起火;

(2)着陆过程开始,但起落架放不下来;

(3)迫在眉睫的空气动力失速;

(4)发动机停止;

(5)液压系统液面过低;

(6)液压系统液体完全消失。

系统越安全处境越危险?专家说,吸取灾难的经验,让生活转危为安

虽然看起来都很吓人,但答案只有一个。只有当空气动力失速时,驾驶舱内才会出现视觉、听觉、感觉的全方位最高等级示警:红色警告灯亮、屏幕出现红色文字、舵轮剧烈震动。其他问题,根据重要程度设置了不同层次的预警,比如有的故障绝不会让舵轮振动,只在屏幕上提示信息,文字颜色也因重要程度有所不同;有些情况随着故障升级亮起灯光并出现警示噪音。确定示警层次的原则很简单,只留下必要的,再按重要性排序,不让警示系统的复杂程度超过应该达到的程度。遵循这个原则,医院计算机系统的问题,也可以避免。

桥水基金创始人瑞·达利欧在微博中说,“为最坏的情况做准备,以尽量使其不那么糟糕。”《崩溃》这本书中关于各领域安全事故的研究正起到了这样的作用,从重大灾难中总结出的避险原则,如今也能为普通人所用,不仅能够帮助我们提前遏制和摆脱工作生活中的危机,更能让我们改换看待问题的方式,实现个人成长和思维升级。我想,这是《崩溃》这本书更重要的意义所在。


分享到:


相關文章: