欢迎访问西安广宝电子科技有限公司官网! 资料下载 | 售后服务 | 服务流程 | 联系我们
网站首页 联系我们
您现在的位置:网站首页 - 新闻资讯 -  行业资讯
新闻资讯
公司新闻
行业资讯
安防知识
产品中心
一卡通门禁系统
停车场通道闸系统
视频监控系统
智能楼宇对讲系统
霍金留给人类的最后警告:新书预言超级智能和超人会降临
发布者:本站 发布时间:2018-10-20 13:15:47 阅读:2078次

[摘要] 霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版。他在书中认为,技术奇点之后超级智能将出现,人类经过基因编辑之后成为超人,未来人类将到星系开疆拓土,新生命形式的星际旅行机器会出现。

  霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版西安车牌识别公司。他在书中认为,技术奇点之后超级智能将出现西安专业车牌识别系统,人类经过基因编辑之后成为超人西安公司车牌识别,未来人类将到星系开疆拓土西安办公室考勤车牌识别,新生命形式的星际旅行机器会出现。

  “我在这个星球上过着不平凡的生活西安军用车牌识别,同时用我的头脑和物理定律穿越宇宙。我去过银河系最远的地方,进入了黑洞,回到了时间的起源西安立方车牌识别。在地球上,我经历过高潮和低谷,动荡和和平,成功和痛苦西安安全车牌识别。我富有过,贫穷过,我健全过,残疾过。我受到过赞扬也受到过批评,但我从未被忽视西安密码车牌识别”霍金逝世7个月后,他生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版,上述文字是他在书中写的自白。             

  不同于经典著作《时间简史》西安员工打卡机,这本最新的著作重点关注目前地球上所有人都将面临的几个重大挑战监狱车牌识别,包括人工智能的发展、基因编辑技术、气候变化、核战争的威胁等等。这部书由《万物理论》(The Theory of Everything)男主角、霍金扮演者Eddie Redmayne和2017年诺贝尔物理学奖获得者Kip Thorne做前言介绍,霍金女儿Lucy Hawking做后记。霍金在书中试图回答几个问题:人类会在挑战之下活下来吗?我们应该在太空中殖民吗?上帝真的存在吗?

  在亚马逊Kindle版的介绍中,给出了这样的评价:对世界来说,“Brief Answers to the Big Questions”是这位伟大的物理学家最给出的最后信息。

  创造AI可能是人类历史上最后一个大事件

  人们很容易把高度智能机器的概念当作科幻小说来看待,但这将是一个错误,而且可能是我们有史以来犯的最严重的错误。霍金认为,当AI在人工智能设计领域变得比人类更优秀,以至于它可以在没有人类帮助的情况下递归地自我改进时,我们可能会面临一场智能爆炸,最终导致机器的智能远远超出我们。

  机器智能跟人类的差距有多大?霍金说,这种差距甚至比人类超过蜗牛的还要大。当这种情况发生时,我们需要确保计算机有跟我们一致的目标。

  迄今为止,人工智能的原始形式已被证明非常有用,但霍金担心,如果创造出一种能与人类匹敌或超越人类的东西,后果将不堪设想。人类受到缓慢的生物进化的限制,无法竞争,将被取代。在未来,人工智能可以发展出自己的意志,一种与我们的意志相冲突的意志。

  霍金认为,创造人工智能将是人类历史上最大的事件。不幸的是,它也可能是最后一个,除非我们学会如何规避风险。

  技术奇点之后超级智能会降临

  数学家Irving Good在1965年提到,拥有超人智能的机器可以不断地进一步改进它们的设计,科幻作家Vernor Vinge把这种进化称之为技术奇点。我们可以想象,这种技术会超过金融市场,超过人类研究人员的发明,超过人类领导人的操纵,甚至可能用我们甚至无法理解的武器制服我们。人工智能的短期影响取决于谁来控制它,而长期影响则取决于它能否被控制。

  在中期,人工智能可能会使我们的工作自动化,带来巨大的繁荣和平等。展望未来,可以实现的目标没有根本的限制。一个爆炸性的转变是可能的,尽管它可能会以不同于电影的方式上演。简而言之,超级智能人工智能的出现要么是人类有史以来最好的事情,要么是最糟糕的事情。人工智能真正的风险不是恶意,而是能力。

  一个超级智能的人工智能会非常擅长实现它的目标,如果这些目标与我们的不一致,我们就有麻烦了。你可能是憎恨蚂蚁,也不出于恶意踩死蚂蚁,但如果你负责一个绿色水电能源项目,而该地区有一个蚁丘要被淹没,这种情况下对蚂蚁来说实在太糟糕了。因此,人类不要成为AI的蚂蚁。

  不要觉得这种担忧很可笑,举例来说,如果一个高级外星文明给我们发了一条短信,说:“我们再过几十年就会到达”。我们会不会只是回复说:“好吧,你来的时候给我们打电话,我们会让灯一直亮着。”外星人可能不会来,但这很可能是会发生在人工智能身上的事情。

  近期最担忧:各国开发自主武器系统

  虽然霍金自己是一个众所周知的乐观主义者,但他不确定这种乐观能持续多久。例如,在短期内,世界各国军队正在考虑在自主武器系统中展开军备竞赛,以选择并消灭自己的敌人。

  当联合国正在讨论一项禁止此类武器的条约时,自主武器的支持者通常忘记问一个最重要的问题:军备竞赛可能的终点是什么?这对人类来说是可取的吗?我们真的希望廉价的人工智能武器成为未来冲锋枪,在黑市上卖给犯罪分子和恐怖分子吗?考虑到人们对我们长期控制越来越先进的人工智能系统的能力的担忧,我们是否应该武装AI,并将我们的防御力量交给AI?

  因此说,现在是停止自主武器军备竞赛的最佳时机。

  星际扩张也许是人类拯救自己的唯一办法

  霍金认为,在未来1000年的某个时间点,核对抗或环境灾难将使地球瘫痪是不可避免的。到那时,霍金希望并且相信,人类这个聪明的种族将会找到一种方法来摆脱地球上粗暴的束缚,从而在这场灾难中幸存下来。

  目前,除了地球人类无处可去,但从长远来看,人类不应该把所有鸡蛋都放在一个篮子里,或者放在一个星球上。霍金希望在人类学会如何逃离地球之前,能避免掉下篮子。并且,离开地球需要一个协调一致的全球方式——每个人都应该加入。人们需要重新点燃20世纪60年代早期太空旅行的激情。

  现在,太空探索技术几乎在人类的掌握之中,因此,是时候探索其他太阳系了。星际扩张也许是唯一能把人类拯救自己办法。

  本世纪出现基因编辑后的超人

  另一方面,人类没有时间等着达尔文的进化论让我们变得更聪明、更善良。人类现在正进入一个新的阶段,这个阶段可能被称为“自我设计进化”——人类将能够改变和改善我们的DNA。

  首先,这些变化将局限于修复遗传缺陷——例如囊性纤维化和肌营养不良,它们由单个基因控制,因此很容易识别和纠正。其他的品质,比如智力,很可能是由大量的基因控制的,而要找到它们并找出它们之间的关系就会困难得多。但也不是不可能。霍金确信在本世纪人们将会发现如何修正智力和本能,比如攻击性。因此,他预测反对人类基因工程的法律可能会通过。但有些人无法抗拒改善人类特征的诱惑,比如记忆力大小、抗病性和寿命长短。

  一旦人们尝试这种“诱惑”,就会出现超人。一旦这样的超人出现,那些无法与之竞争的人类将面临重大的问题,他们将会消亡,或者变得不重要。相反,那些靠自我设计改变基因的人,会以越来越快的速度提升自己。从这个角度讲,如果人类能够重新设计自己,也很可能会扩展到其他星球。

  新生命形式的星际旅行机器会出现

  然而,长距离的太空旅行对于以化学为基础的生命形式来说将是困难的,与旅行时间相比,人类这种生物的自然寿命很短。根据相对论,人类到达星系中心大约需要10万年。在科幻小说中,人们通过太空扭曲或者穿越维度来克服这个困难。但霍金认为这些都不可能实现,无论生命变得多么聪明。

  而未来还可能出现一种更简单的方法——几乎已经在我们的能力范围内——设计出能够持续足够长的机器用于星际旅行。当人们到达一颗新恒星时,他们可以在合适的行星上着陆,开采出更多的物质来制造更多的机器,这些机器可以被送往更多的恒星。这样的机器将会是一种新的生命形式,基于机械和电子元件而不是大分子。它们最终可能取代以DNA为基础的生命,就像DNA可能取代了早期生命一样。

  宇宙中还有其他智慧生命吗?这个问题争论已久。如果存在外星生物,那为什么我们没有被拜访过呢?霍金提出了几种可能。

  形成自我复制系统的可能性是合理的,就像细胞一样,但这些生命的大多数形式并没有进化出智力。我们习惯于认为智能生命是进化的必然结果,但如果不是呢?更有可能的是,进化是一个随机的过程,智力只是众多可能结果中的一个。甚至不清楚智力是否有任何长期的生存价值。如果地球上所有其他生命都被我们的行为所消灭,细菌和其他单细胞生物可能会继续生存。

  从进化的年表来看,也许智力对地球上的生命来说是不太可能的发展,因为从单个细胞到多细胞生物需要很长时间——25亿年——这是智力的必要前体,所以这与生命发展智力的概率很低的假设是一致的。在这种情况下,我们可能期望在银河系中找到许多其他的生命形式,但我们不太可能找到智慧生命。

  另一种无法发展到智能阶段的生命可能是小行星或彗星与行星相撞。一部分观点认为,大约6600万年前,一个相对较小的天体与地球相撞,导致了恐龙的灭绝。一些早期的小型哺乳动物幸存下来,但是任何像人类一样大的动物几乎肯定会被消灭。

  还有一种可能性是,生命有合理的可能性形成并进化为智能生物,但系统变得不稳定,智能生命毁灭了自己。这将是一个悲观的结论,霍金说,我希望这不是真的。

  他更倾向于第四种可能性:我们忽略了其他形式的智慧生命。在我们目前的阶段,与一个更先进的文明相遇,可能有点像当初的美洲居民与哥伦布相遇,霍金认为对方会因此而更现先进。

 

上一篇: 比特大陆发布云端AI芯片!全面杀入安防领域
下一篇: 2018北京安博会 精彩热点抢先看
新闻资讯
开关电源和线性电源的区别
微耕最新6000系列门禁控制器全面国产化
人证合一验证解决方案
5G能为安防产业带来什么转变
人员无线定位系统解决方案
医院一卡通解决方案
解决方案
免布线手机云对讲系统解决方案
矿区虹膜门禁解决方案
国密门禁监控系统解决方案
资产管理资产盘点解决方案
人脸测温门禁解决方案
AB门互锁门禁解决方案
友情链接: 西安背景音乐广播系统 |  西安监控 |  西安门禁系统 |  西安门禁考勤系统 |  西安防盗报警系统 |  西安视频监控系统 |  西安楼宇对讲系统 |  西安停车场管理系统 |  西安一卡通消费系统 | 
客户服务热线:029-83298678 15909209899
Copyright © 2010-2018 xagbdz.cn All Rights Reserved. 版权所有 西安广宝电子科技有限公司
地址:陕西省西安市电子西街 西京公司  电话:029-83298678 15909209899  传真:029-81028655
陕ICP备10203719号-2    技术支持:中朗网络