人类最终会灭亡吗?

用户6357262342


如果最终是指无限长的时间,毫无疑问,人类是会灭亡的。

很多时候,我们不由自主地把人类看得太特殊了,而事实上呢?我们就是地球数百万物种的其中之一而已,智慧并不能让我们与其他物种有本质区别,而且人类适应能力远不是最强的(实际上相对很弱)!

而生命的本质和意义是什么呢?死亡!死亡才是生命的本质,也是生命的最终意义!这看上去很残酷也很无奈,但换一种角度来看待死亡或许有所不同!

科学家们通过对宇宙的观测得出这样的结论,不仅仅是地球上的生命,大到宇宙天体,比如恒星,在遥远某天也会走向死亡,甚至我们的宇宙也有走向终结的一天,而来自于星尘的我们有什么资格获得永生呢?

同时,从地球上生命的演化史来看,死亡虽然看起来很残酷,但更有利于生命的演化和进化,以更加适应周围环境!同时死亡并不是绝对的,同时也意味着新生,就如同太阳等恒星在死亡之后会为下一代恒星和行星提供原材料!


宇宙探索


人类当然会灭亡。但原因嘛~

如果你在5000年前问这样一个问题:人类会为何灭亡?黄帝会说:天幕崩塌,大地撕裂,洪水泛滥,猛兽肆虐。

如果去到2000年前呢?孔子会说:礼崩乐坏,人心不古,战争不断,饥荒遍地,瘟疫肆虐。

如果在200年前呢?慈溪会说:番邦战乱,枪炮无情,瘟疫肆虐。

如果50年前呢?奥本海默会说,原子弹。

如果30年前呢?比尔盖茨告诉你,未来的人工智能。

现在呢?核子战争、人工智能,各路说法。

发现什么问题了没?我们总是惧怕我们所不了解的东西,而随着人类的发展,各种不了解的东西变成了了解 的东西,我们就不再惧怕,却转而惧怕新的不了解的东西。

5000年前,我们以为天圆地方,东西南北四根柱子,那天塌了我们就完了。

2000年前,战争死了很多人,我们就以为战争可以毁掉一切。

200年前,番邦船坚炮利,我们就以为船炮可以毁灭文明。

50年前,原子弹毁掉了两座城市,我们就以为原子弹可以毁灭文明。

30年前,计算机飞速发展,我们就以为人工智能会掌控一切。

但是回头来想,知道地球是圆的之后,我们现在还会担心天塌了吗?有了疫苗之后,我们现在还会担心瘟疫肆虐吗?地震会毁灭房屋,但是我们担心地震毁掉国家吗?

过去我们惧怕的东西,现在我们已经不再畏惧。过去我们视为洪水猛兽的东西,现在已经稀松平常。

那200年后呢?我们可能已经良好地管控核武器,可能已经开发出了安全的人工智能,今天的担心不再是一个问题。到时候我们会担心,地球挂了怎么办?太阳挂了怎么办?人类出路在何方?

1000年后呢?我们可能已经飞出太阳系,找到了新的家园,继续繁衍生息。到时候我们会担心,宇宙会不会有一天毁灭?到时候人类路在何方?

100000000年后呢?我们可能已经掌握了在不同宇宙间穿梭的技术。到时候我们又会担心什么呢?

人类总会灭亡的。但是人类为何灭亡?我不认为我们已经可以看到答案。

换言之,能把人类毁灭的东西,还没生出来呢~


IvanZhu


很高兴回答你的问题。

这个结果是毋庸置疑的。

1. 自然灾害

我们上一任世界霸主是恐龙。但是从考古层面看,可能在很久很久以前,还有4-5次,和现在人类文明相当甚至超过现在科学文明的种群,莫名消失和灭亡了。

周期性的寒冰期,是我们可预见的自然洗牌的方式。

也就是说,未来某个时间点,寒冰期到来,全球气候剧烈变化,气温大幅度下降,人类灭绝可能就在一个月时间内。

当然,人类的灭绝可能还远在这之前。

比如气候变化带来的大范围饥荒、无法找到解药的瘟疫流行等等。

2. 超级细菌or病毒

超级细菌和病毒,绝不是危言耸听。现在病毒和细菌的变异速度真是快超越科学发展速度了,可能你各种注意,还接种了3价流感疫苗,说不定下个月你身体里的疫苗就完全没有作用了。

3. 陨石撞地球

当年恐龙的灭亡方式,如果现在再来一次,依然让人无力。并不是说一颗陨石就把多少人砸死了。而是陨石砸下来可能遮天蔽日的灰尘会让气温在很短时间内下降。人类无法承受,要么冻死、要么吸入灰屑,死亡。

4. 超级智能

被自己创造出来的AI弄死。。。?不是不可能。一旦AI进入强AI时代,或许我们就再也无法掌控了。。。

如果我的回答对您有帮助,希望您可以给我点个赞!花不了多少流量哒!相信我!嘿嘿嘿!


不哈韩的小韩


谁在说,人类最终会灭亡的啊!首先,大家伙先别这么悲观,没了自信心。宇宙洪荒,以科学维度看世界。宇宙中的精灵——人类,可不是自己封的。如果连自己都拯救不了,还谈什么智慧生命啊。人与普通动物的区别在于智慧,主要体现在于人类会用工具。因此可以断言,精灵的人类不会像曾经愚笨的恐龙那样不明不白的灭绝。为什么?

因为,今天的人类拥有先天下忧而忧,后天下乐而乐的忧患意识。我们地球曾经发生过什么,科学家们已经认识得七七八八,虽然不能够还原整个过程。但是,地球已知的超级灾难,无非就是天体撞击、地壳颠覆性的运动、气候灾难等。目前,依据人类掌握的科学工具,应对这些灾难,基本都有招。只要人类自己不作死,引爆核弹摧毁地球,人类灭亡从何谈起呢?相信,在彼此生死存亡之间,凡是拥有智慧的人类,都不会干这傻事。所以,笔者认为,缺乏文明高度的小国必须禁止拥有核武器。

只要地球在短时间内不发生被太阳吞噬不可抗拒的灾难,随着我们人类在航天领域的不断建树,我们的选择有很多。到那时,我们就会明白,我们从哪里来,要到哪里去。很多人看衰人类的未来,都是根据过去的历史经验之谈,不足畏惧。

今天的科学家这么努力的干活,当然不是为了诺贝尔奖,为了个人的荣誉。科学家作为人类未来的基石,所承担的责任是在关键时刻能够拯救人类的火种延续。通关中的人类,如何应对未来的不测,离不开尖端科学工具。人定能够胜天!


汽航岛


首先给出我的答案是——人类最终会走向灭亡。


万物之王和“人类世”

从未有任何一个物种能够像人类一样,在与自然环境的斗争中博得如此崇高的支配权。人类拥有开天辟地般的社会生产力、超群的智慧和语言能力、发达的社会体系和文明,是现存物种中金字塔顶端般的存在,称其为“万物之王”毫不为过。

在人类出现以前,地质时代的划分都是基于地球环境的自然变化。但是由于人类对自然环境的巨大改变——尤其在工业革命后人类对环境演化的影响加剧显著,有地质学家认为现在我们所处的地质时代已经进入了“人类世”。

“人类世”的提出,一方面彰显人类的力量空前强大,另一方面也表明人类对自然环境的负面影响也在持续恶化。


霸主更迭的地球

在人类走上王座之前,地球历史上一共经历过5次大的绝灭事件。每一次大灭绝不仅对大多数物种造成毁灭性打击,而且把当时的统治者都赶下了霸主的王座。

地球生命史上已经上演了数轮霸主更迭的故事。无论是5.3亿年前寒武纪海洋中的巨无霸——奇虾、2.6亿年前的陆上魔王——丽齿兽,以及令人津津乐道的侏罗纪恐龙,它们最终都难逃灭绝的厄运。

大规模的生物灭绝往往会受许多因素影响。比如外星撞击、气候突变、大规模火山爆发、海平面变化、海水或者空气中的含氧量变化。


无可逆转的命运

在地球生命的演化史中,曾经出现过的动物有99%都已经灭绝,我们人类也要坦然面对自然法则的严酷。

对于恐龙来说,它们统治地球的时间超过了1.6亿年,约占整个地球历史的3.5%

。反观250万年前才诞生的人类,才经历了地球演化史约0.05%的时间。留给人类延续历史的时间还十分漫长。

当然,生物的灭绝并非全然是坏事。毁灭中能够孕育新生。只不过那又是另一位霸主要去书写的故事了。


侏罗纪瓦力


人类当然会灭亡,这是百分百肯定的事情。人类死后,谁可以取代人类的位置?很可能谁也取代不了人类的位置。人类文明能够走到今天的地步,不靠宗教神学的妄想,不靠阴阳玄学的意淫,完全是劳动人民辛勤奋斗的结果。人类面对大自然的淫威,从来不曾屈服,而是积极的去改造大自然。人类是地球上有史以来,也是宇宙中唯一一种已知的改造自然,征服自然的物种。其他任何一种生命物种,都不曾像人类这样英勇的迎难而上。

某些宗教徒说信科学就没有智慧,我不知道这些所谓的宗教智慧有个什么用?大洪水来了,我们是用所谓的宗教智慧对抗洪水的吗?当人类面临天灾人祸的时候,所谓的佛陀的大智慧在哪里?佛陀的大智慧,为什么没有在外族入侵的时刻挽救黎民苍生?我从来不信所谓的宗教有什么大智慧。如果有智慧的话,也来自于劳动人民的生产实践,而不是冥思苦想。

人类就是灭亡又如何?刘慈欣在《三体》中说过:给岁月以文明,而不是给文明以岁月。人生也是这样,无志空活百岁。一个人如果不懂得为社会多做贡献,而是整天只知道求神拜佛,把生命寄托于卑微的迷信,就是活了上百年,也不过是行尸走肉,蝇营狗苟,没有自己的灵魂。人类就是灭亡,也要活出自尊,自信,要有自己的勇气,毅力。


怀疑探索者


人终有一死,无法避免,但人类这个物种是否会最终灭绝呢?就如当初的恐龙一般?这个问题我也思考过,但无法能给出正确的答案。

但值得肯定的是,人类注定会灭亡的。

这是可能的,但也不太可能


人类可能会灭绝,但无法推测到底是什么时候,6500万年前,恐龙灭绝于小行星撞地球,地球大部分生命遭到灭绝,只有少部分的生物继续繁衍了下去。

而作为目前地球的主宰者:人类,如果遭遇这种无法阻止的灾难,那只有灭绝。

如果我们从宇宙万物的角度来看,我们这个宇宙中的任何东西都不会永远持续下去,其中包括我们心爱的宇宙本身。按这个说法,人类的确是物种注定是灭绝的。


那么为什么说不太可能呢?目前人类在适合人类健康的每个方面都取得了进步,在各个领域上都有非常重大的突破,量子技术,克隆技术等高科技,未来能够实现永生。

当人类能够在基因领域达到突破,可让人类在太空中生存,或者其他气氛中生活的话,那人类的命脉将大大延伸,尽管宇宙会灭亡,但人类可能可以见证那一幕。

不过说到底,人类终究会灭亡的。也许当我们没有走出地球之前,资源已经耗尽,或者灾难性事件发生,或者地球它将不再能够维持我们现在的生活。后者当我们的星系坠入另一个星系,太阳系也将在某些时候被破坏。


但是在某个地方...在一个不断变化的宇宙中,适合这种环境的生活将将再次出现。这就是万物的规律。

人类的灭亡是注定的,就跟我们现在的死亡一样,他是无可避免的。

在注定死亡之前,我们应该好好珍惜每一天,因为死了你永远也消失了…


万物未解之谜


宇宙即我心,我心即宇宙。心无穷无尽,宇宙无量无边。其间万物万象相生相克,生住异灭,变化无穷。其性守恒,不增不减不生不灭。就像自己的一只手,无论是舒拳为掌,还是收掌成拳,怎么变化也没跑到手外。霍金也好,火星男孩也好,都是宇宙区域之人,也是宇宙本体。如玻璃碎片当下就是整块玻璃的全部信息。人类当下即是宇宙全体,如果人类灭亡了,那就意味着整个宇宙就要灭亡。假如宇宙灭亡了,那么无量无穷的能量会转化为什么呢?又会转移到哪里去呢,难道宇宙外还有一个宇宙?所以,预言人类会在2033年灭亡,完全是自己的妄想,不可当真。





今令我见


  • 关于这个问题,我们首先来看看,究竟有哪些事情对人类文明造成威胁,以至于我们需要担心自己是否会走向灭亡。

  • 根据风险等级,我们总结出来九大最紧迫的威胁,一起看看人类是否还有救。



在不久前的一篇封面报道中,《连线》(Wired)杂志英国版采访了地球的守护者:一支努力保护这个星球免受末日威胁的学者队伍。

这支队伍中有受过高等教育的专家、律师、学者和哲学家,他们组成了生存风险研究中心(Centre for the Study of Existential Risk,简称CSER)以及莱弗休姆未来智能研究中心(Leverhulme Centre for the Future of Intelligence,简称CFI)。这些人聚在一起对地球及人类面临的种种系统性风险进行评估,并研究了我们如何才能将人类文明从即将来临的末日中拯救出来。

以下是这些专家眼中最紧迫的九大威胁。但不用担心,我们对每一种威胁都有一套应对计划。

1. 人工智能统治世界

机器进化出优于以及独立于人类的智能,这是末日威胁研究社群最重要的关注点之一。

牛津大学哲学教授尼克·博斯特罗姆(Nick Bostrom)称,从农业革命到工业革命,人类过往的技术革命是在不断加速的,不出意外的话,人工智能这趟列车“可能不会在人类文明这一站停留乃至减速”。他预测,到2075年时,机器将拥有相当于人类90%的智能。

正如生命未来研究所联合创始人塔林(Tallinn)指出的,这个威胁的紧迫性还有另一层原因:人工智能崛起的风险会加剧其他所有风险。换句话说,地球面临着这样一种威胁,即智能机器人可能脱离人类控制,摧毁生态环境,或者制造核冬天。

这个领域的研究有形而上的(我们应该让人工智能的道德观念跟人类保持一致吗?如果是这样,人类的道德观念又是什么呢?),也有形而下的(我们如何对自动化武器进行监管?)。

这些研究也存在很多争议,一些研究人员认为,人工智能不会构成末日威胁。关于末日威胁的说法并不是它会,而是它能。因此,人工智能在末日威胁研究社群的议程中排名很靠前。

潜在爆发日期:2075年

末日威胁等级:非常高

2. 威胁全人类的大瘟疫

一种可能性是,一个心怀不满的人可能制造或盗取病毒,并在世界范围内散播。

自然存在和人为制造的大瘟疫是被研究最多的全球性威胁之一。“功能获得”(gain of function)实验引起的争议为这个领域的研究赋予了新的紧迫性,这些实验涉及操纵一种已知的病原体,为其添加具有风险的额外能力。

举例来说,在2011年,病毒学家罗恩·富希耶(Ron Fouchier)跟河冈义裕(Yokhihiro Kawaoka)制造了一种可以在雪貂之间传播的禽流感病毒毒株。他们这样做是为了更好地了解病毒在野外进化出可传播性的条件。这样的实验可以避免某些风险,但也带来了一种更大的风险,即经过改造的病毒可能逃出实验室,制造全球性的大瘟疫。

这其中的风险特别巨大,因为病毒可以进行自我复制。核爆炸的影响或许还是区域性的,而在这个高度连通的世界中,没有解药的病毒却可能在数天之内传遍全球。在过去,像黑死病那样的自然瘟疫造成了数百万人的死亡,并引发了大规模的社会变革。在21世纪,先进的生物技术可能制造出的大瘟疫会让黑死病显得只是不值一提的小感冒。

人类未来研究所对所谓的“管道风险”进行了研究,即这些病毒如何可能逃脱出去。一种可能性是,一个心怀不满的人——也许是实验室的雇员——可能制造或盗取病毒,并在世界范围内散播。研究人员兼作家安德斯·桑德伯格(Anders Sandberg)正在撰写一篇论文,探讨那些电影大反派式的人物想要毁灭人类的动机。

“研究其实举步维艰,因为几乎没有人想要这样做,可供研究的原始资料极少。”桑德伯格说道。这迫使他分析宗教和邪教在多大程度上可能去煽动大屠杀(据桑德伯格称,大多数教派都不会)。在CSER进行类似的研究时,他们得出了一个关于当前状况的重要洞见:生物技术实验室目前都没有制定对雇员进行心理分析的规定。

潜在爆发日期:现在

末日威胁等级:很高

3. 人工智能驱动的武器夺取控制权,并组成军队

目前,韩国已经在朝韩边境部署了武装机器人哨兵,因此可以毫不夸张地说,自动化武器已经被投入使用。我们不难想象,这些武器的未来版本将能够使用面部识别软件来追捕目标,而3D打印技术将让军阀、极端无政府主义者或恐怖分子得以轻松地储备武器。

一如既往,这里面存在一个悖论。在过去的国与国战争中,国家需要制造破坏力超强的武器来攻城略地,并派遣军人开展军事行动,这就会导致种种与战争无关的折磨与非理性行为。而机器人武装可以进行精确打击,机器人士兵也不会遭受折磨或者威胁无辜平民。

然而,这些武器也将变得又小又便宜,其所有权不再被国家垄断,军事力量也将不再是举国规模,正如塔林所言:“有可能5个人拉着两卡车微型自动化武器就能摧毁整个城市。在那样的世界中,有可能你一早醒来就看到新闻说,又有一连串城市被摧毁了,但是却没有人能够确定发动袭击的幕后黑手是谁。”

如果这听起来很可怕,那么再想想,如果一个危险的超级人工智能控制了这些机器人武装的话……

潜在爆发日期:随时

末日威胁等级:低

4. 核战争终结文明

虽然人们对核战争的讨论已经远远少于冷战期间,但成千上万的核武器仍然处于随时待命状态,而且拥核国家之间也存在剑拔弩张的局势,比如克什米尔和乌克兰。

全球灾难性风险研究所(Global Catastrophic Risk Institute,简称GCRI)正密切关注这个课题,并尤其关注俄罗斯和美国爆发意外战争的可能性,这两个国家拥有世界上90%的核武器。所谓意外战争,可能就是一方错认虚假警报,发动真实攻击进行报复。在GCRI研究的90%的场景中,意外战争爆发的年度概率在0.07至0.00001之间。从逻辑上讲,0.07这个数字意味着,意外的核战争平均每14年可能爆发一次。

除了那些不幸成为轰炸目标的人之外,核打击带来的辐射不一定会对整个人类造成威胁。只有当足够多的城市(大约100个)遭到轰炸,让烟尘弥漫平流层,阻挡太阳的热量并降低地球温度,我们才会真正面对来自核冬天的威胁。

这种人为制造的冬天会减少受影响地区的粮食产量。如果这种事发生在美国、俄罗斯和欧洲,那么粮食减产就足以引发世界其余完好国家和地区的崩溃,从而造成人类文明终结。

潜在爆发日期:随时

末日威胁等级:低至中等

5. 极端气候变化导致基础设施崩溃

气候变化是CSER研究的主要课题之一,但一些末日威胁研究人员认为,这个问题并非一个十分紧迫。根据桑德伯格的说法,因为“这个问题太小了”。这在一定程度上是因为,已经有很多其他人在研究这个课题,以及气候变化构成威胁这个事实已然深入人心——但自相矛盾的是,这也是因为其中存在太多的未知数。“情况可能是,我们会在本世纪研发出能够解决气候变化问题的技术。”桑德伯格说,“但话说回来,我们也可能研发出让情况变得更糟糕的技术。我们不知道人类活动会造成多大的温度变化,因此我们实际上很难准确地对预测进行建模。”

对于很多通常跟气候变化联系在一起的潜在灾难性影响,那些研究末日威胁的人都兴致缺缺。然而,除了温度上升导致大量人群死于中暑(这种事情不大可能发生),气候变化的最大威胁在于它有可能导致人工和自然基础设施崩溃——例如,一个物种因气候变化灭绝,继而通过连锁反应摧毁一个生态系统。换句话说,气候变化最终可能是通过由其导致的疫病或者因资源日益减少而爆发的核战争来消灭人类的。

潜在爆发日期:随时

末日威胁等级:低至中等

6. 小行星撞击地球,摧毁所有生命

如果不是有大气层的话,地球将不断遭到小行星的轰炸,因为大气层有能力烧尽任何直径不足10米的东西。这是非常有用的,因为即使一颗直径10米的陨石也能积聚起相当于广岛原子弹的动能。地球每1,000年就会遭受一两次直径超过10米的小行星或彗星的撞击,每100万年则会被一颗直径至少达到1千米的小行星撞上,那足以影响地球的气候,并导致作物歉收,继而危及人口安全。

真正达到灭世级别的撞击事件——比如在大约6,600万年前灭绝恐龙的希克苏鲁伯陨石,它撞出的陨石坑直径达到了180千米——每5,000万至1亿年才会出现一次。这可能足以引起我们的担忧,但有两个事实会让人感到安心:第一,天文学家密切监视着可能对地球构成威胁的大个头天体;第二,有一个完整的跨学科科学家社群在研究这些天体逼近地球时的对策。

天文学家负责寻找小行星,数学家负责计算它们的飞行轨道,地球物理学家负责思考它们带来的撞击以及造成的影响,太空工程师则负责想出让它们转向的最好办法。我们潜在的应对策略包括:发射飞船把小行星涂成容易反射太阳风的白色,进而利用其反作用力推动小行星偏离原来的轨道;利用引力牵引航天器把小行星推开;用航天器撞击小行星;以及利用激光器或核炸弹轰击小行星。

潜在爆发日期:5,000万至1亿年

末日威胁等级(在2017年):

7. 我们生活在一个复杂的模拟世界当中

为了对一些复杂的风险进行准确计算,末日威胁研究人员必须把自己所知的限制考虑在内。在这方面的研究中,最深奥难懂的是这样一种假说,即我们可能远非宇宙中最聪明的生命形式(至少在计算机超越我们之前),实际上只是棋盘上受人操纵而不自知的小卒子。

这种模拟假说认为,人类及其全部历史和文化只是一种更高实体进行的一场实验或游戏,正如电影《楚门的世界》(The Truman Show)探讨的那样。博斯特罗姆表示,FHI对这种假说进行了研究,因为它是“对我们关于未来以及自身在世界位置潜在想法的一种限制”。

类似的概念还有“玻尔兹曼大脑”(Boltzmann brain),这个以物理学家路德维希·玻尔兹曼(Ludwig Boltzmann)命名的术语是在2004年被创造出来的。从本质上讲,这种理论认为,人类只是多元宇宙中物质的一种随机集合,而多元宇宙中还有很多我们无从了解的事物。量子力学表明,最小单位的能量偶尔会产生一个物质粒子。因此,鉴于时间的无限性,它们有可能随机产生一个拥有自我意识的大脑,但这个大脑不一定能够理解任何超出自身经验的东西。

一些支持者利用这个概念来解释为什么宇宙看起来如此有序,其他哲学家和科学家则在努力证明为什么玻尔兹曼大脑不可能存在。“几乎没什么人把玻尔兹曼大脑当回事。”桑德伯格说,“但这是一个令人讨厌的问题。”科学家很少把这当成末日风险进行研究,一定程度上是因为,即便模拟假说是真的,我们也无计可施。

潜在爆发日期:不可知

末日威胁等级:很低

8. 食物短缺导致大饥荒

到2050年,全球人口预计达到96亿。一些观察人士认为,为了避免大规模的饥荒,我们将需要在短短30年里让食物产量增长70%。其挑战在于,推动食物产量增长的现有技术——从上世纪50年代以来,这些技术帮助人类跟上了人口增长的步伐——主要是依靠化石燃料。而且,可耕种的土地也由于表土侵蚀等因素在不断减少。

此外,还有风险直接跟我们食用的食物性质有关。学界普遍认为,人类将需要多吃谷物少吃肉。然而,尽管作物技术的进步已经让人们培育出可以在贫瘠土地生长的品种,但它们也增加了作物患病的风险。举例来说,作为全球第三流行的谷物作物,小麦可能被真菌感染消灭——合成病毒的出现只会进一步增加灾难爆发的风险。

通常情况下,食物短缺会导致骚乱和政治动荡。但令人惊讶的是,人们对食物短缺可能造成的社会崩溃并未做过多少研究。

潜在爆发日期:2050年

末日威胁等级:

9. 真真空以光速吞噬宇宙

一位心怀忧虑的生物化学家向欧盟和美国法庭提出上诉,试图在大型强子对撞机(LHC)开机前阻止实验进行。

在末日威胁分析的深奥世界中,技术上存在可能性的末日场景跟科幻作品中的猜想是存在一个交集区的,而粒子加速器事故就是其中一例。

在过去十年间,一直有人猜测,加速器中的粒子碰撞可能会引起某种反应,最终改变所有物质的构成以及物理定律。近来,一些学者提出,我们此前所认为的真空其实还包含有粒子,宇宙中并不存在一种什么都没有的“真真空”。他们认为,真真空有可能以光速吞噬宇宙,这个过程被称为真空衰变。之所以没有发生这种衰变,是因为真空处于一种元稳定状态,而粒子加速器有可能扰乱它,致使其吞噬一切,灭绝我们的世界。一些物理学家不认同这种理论,他们称,地球一直在经受宇宙射线的轰击,而在改变物质方面,这些射线可能拥有比对撞机更强的能量。他们认为,地球仍然存在,所以它必然足够强大。

博斯特罗姆的博士论文对此进行了探讨,即我们自己的立场会扭曲概率计算。他的研究称,我们的存在并不能用来证明这种衰变的不可能性,因为过去有可能已经有数百万颗其他地球被吞噬了。

翻译:何无鱼

造就:剧院式的线下演讲平台,发现最有创造力的思想


造就


地球环境是多变的,从第三纪之始到现在己经发生过74个冷球期和74个热球期。现在是H一一74热球期,是由半人马星团体近临太阳系而形成的。它始于2万年前,结束于39万年后。当半人马星团体离开地球时,地球就会成为一个冰冻地球。我们也称其为C一一75冰球期。它将持续16万年,直到豺狼被星团体开始近临太阳系,地表气温又会开始大幅上升。H一一75热球期开始形成,这个热球期会持续28万年。那时的地球会是豺狼座星系的人类来到地球开始他们他们全新的生活。而今天来自半人马星系的人类可能全都回到半人马的母星系继续繁衍,因为半人马星团体是一个大星系,有二、三十颗恒星体,所以在那些宜居行星体上是没有冰球期的,诸生物可以长期生存其上。这是未来70万年的地球气候环境变化和诸生物在地表的兴衰过程。


分享到:


相關文章: