长江网3月14日讯(长江日报记者高萌)作为全球知名科学家,霍金非常活跃,轮椅和身体疾病并不能限制他思维的翱翔。他的预言,有时超出了其主要研究的领域,引发广泛探讨。但不论人们认同或是反对,都承认其观点有创新性。
这些预言真的会实现吗?3月14日,中国科学院粒子天体物理重点实验室主任张双南接受长江日报记者采访时表示,比如星际移民,霍金提出突破摄星计划,这个计划野心勃勃,虽然所需技术远远超越了目前人类所掌握的技术,但它没有任何背离基本科学原理的地方。“既然不违反科学原理,总是有可能实现的”。
正如霍金本人所说:“什么是让人类独一无二的品质?在我看来,超越极限是我们独有的品质。今天,我们迈出了驶向宇宙的又一大步,因为我们是人类,我们的本质就是飞翔。”
预言一:宇宙起源有点像沸腾水中的“泡泡”
2006年霍金曾表示,爱因斯坦的广义相对论无法解释宇宙如何由大爆炸形成,如果把广义相对论和量子论相结合,就有可能解释宇宙是如何起始的,“这是回答我们为何在此,我们从何而来的宇宙学核心问题”。
他和物理学家罗杰·彭罗斯一起证明了奇点定理,认为宇宙起源于一个时间和空间消失、物质密度无限大的奇点。
在霍金想象中,宇宙起源有点像沸腾水中的“泡泡”。他认为,宇宙的开端,可能出现了许多“小泡泡”,然后再消失。“泡泡”膨胀的同时,会伴随着微观尺度的坍缩。一些坍缩的“泡泡”,由于不能维持足够长的时间,来不及发展出星系和恒星,更不用说智慧生命了。但一些“小泡泡”膨胀到一定尺度,就可以安全地逃离坍缩,继续以不断增大的速率膨胀,形成了我们今天看到的宇宙。
“我们已经观察到,宇宙的膨胀在长期变缓后再次加速,现有理论仍不能很好地解释这个现象。宇宙学是一个非常激动人心的学科。我们正接近回答古老的问题:我们为何在此?我们从何而来?”他说。
预言二:宇宙中或许有外星生命正盯着我们看
2015年,伦敦皇家科学学会寻找外星生命迹象的启动仪式上,霍金称在无限的茫茫宇宙中,一定存在着其他形式的生命。
“或许外星生命会正盯着我们看呢。”他认为,不管最终地外智慧生命到底存在还是不存在,现在该是有人正式投入进来。“这个问题,我们必须要弄个明白”。
霍金在美国探索频道2010年4月25日播出的纪录片《跟随斯蒂芬·霍金进入宇宙》中说,外星人存在的可能性很大,但人类不应主动寻找他们,应尽一切努力避免与他们接触。他认为,鉴于外星人可能将地球资源洗劫一空然后扬长而去,人类主动寻求与他们接触“有些太冒险”。
目前,世界多国正在开工建设“超级望远镜”,终极目标之一就是更远地深入宇宙中去捕捉任何无线电波和激光信号。
预言三:人类掉进黑洞可逃至另一宇宙
2014年1月24日,霍金在一篇《黑洞的信息保存与气象预报》的论文中指出,“黑洞是不存在的”,不过“灰洞”的确存在,再次震惊物理学界。
霍金的最新“灰洞”理论认为,黑洞从来都不会完全关闭自身,物质和能量在被黑洞困住一段时间以后,又会被重新释放到宇宙中。当光线逃离黑洞核心时,它的运动就像人在跑步机上奔跑一样,慢慢地通过向外辐射而收缩。霍金由此进行大胆假设:“如果你感觉你掉进了黑洞,不要放弃,还是有办法出去的。”他称,若不幸的太空旅行者掉进黑洞里,是可以逃逸,只不过他将无法回到原来的宇宙,而是会逃往另一个宇宙。
经典黑洞理论认为,任何物质和辐射都不能逃离黑洞,而量子力学理论表明,能量和信息是可以从黑洞中逃离出来的。目前,也有理论物理学家并不认同霍金的说法。不过,霍金也指出,对于这种逃离过程的解释还需要一个能够将重力和其他基本力成功融合的理论。在过去近一百年间,物理学界还没有人试图解释这一过程。
预言四:地球将变“火球”200年内人类须移民外星
2017年11月,霍金预言2600年能源消耗增加,地球或将变成“火球”。早在2010年8月,霍金在接受美国某知识分子视频共享网站访谈时,曾称地球200年内会毁灭,人类要想继续存活只有一条路:移民外星球。
霍金表示,人类如果想一直延续下去,就必须移民火星或其他的星球,而地球迟早会灭亡。他认为,随着地球人口增长,能源消耗将会增加,地球将变成一个“熊熊燃烧的火球”。要摆脱这场灾难,只能去寻找一个适合人类生存的星球。他还称:“人类不能把所有的鸡蛋都放在一个篮子里,所以不能将赌注放在一个星球上。”
目前,科学家发现在太阳系中,火星是除地球之外可供人类居住的最佳选择。但火星载人探测要几十年之后才能实施。霍金则提出“突破摄星”项目,涉及到离太阳系最近的半人马座阿尔法星之旅。霍金认为,在它周围可能有适宜人类生存的星球。
张双南向长江日报记者介绍,突破摄星项目的目标是开发数千个邮票大小的纳米小型太空飞船,飞往离我们最近的恒星系。这样在21世纪下半叶,可能能传回适合人类生存的星球的第一批照片。
预言五:彻底开发人工智能可能导致人类灭亡
2017年11月,霍金在接受《连线》杂志采访时认为,人工智能有可能会取代人类,最终会演变成一种超越人类的新生命形式。
霍金已不是第一次对人工智能的崛起表示担心,他说:“彻底开发人工智能可能导致人类灭亡。”2016年10月,霍金也曾警告称,人工智能可以发展自己的意志,并与人类的意志抗衡。
按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境”。机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。
不过也有科学家认为,霍金对人工智能的未来过于悲观。他们指出,至少在相当长的时间里,人类会完全掌控这类技术的发展,利用它来解决许多现实问题,而要让人工智能技术得到“充分发展”,还有很长的路要走。