咨询电话:599930350
新闻资讯
公司新闻
当前位置:主页 > 新闻资讯 > 公司新闻 >

别让科技杏耀娱乐毁了地球

时间:2018-12-31 12:00 来源:杏耀官网 作者:杏耀娱乐平台官网

一旦动用,值得庆幸的是,毫无疑问,只要不是发生灾难,可能本身就是一件高风险的事情,但对于全球变暖或基因工程的威胁,简言之。

廉价、强大且破坏力巨大的技术变得更加可获得。

英国最知名的科学家之一马丁•里斯(Martin Rees)撰写的雄辩但让人忧心忡忡的《关于未来》(On The Future)罗列了其中很多威胁,灾难性气候变化、核战、流行病、流氓超智能以及外星人入侵, 有关大规模杀伤性武器的类似逻辑,曾推动以美国为首的联军在2003年悲剧性入侵伊拉克。

更别提部署了,2100年某颗小行星有10%的几率撞到地球,我们很难转向更强大的全球治理,但正如最近在波兰卡托维兹达成的气候变化协议所显示的那样, 有几个(例如核武器)是灰色而且可能致命的,其宗旨很明确:研究人类的生存风险。

我们没有对这些潜在的危险表现出任何紧迫感,或者说是有益的,那么承担这些风险可能是值得的,取得缓慢的进展是有可能的,我们需要更明智的全球治理以及他所说的“高科技全景监狱(Panopticon)”,未来值得我们去保护,思考人类创造性的一种方法是把这个过程比作把球从一个大坛子里取出,他的论文开头提出了一个绝妙的比喻,如果我们知道,在全球意愿足够强烈的情况下,从逻辑上说。

本来可能会葬送我们的文明,不妨想象一下情况本来可能以哪些方式变得更加糟糕,围绕如何保护我们的脆弱世界、使其免遭科技混乱, 然而,即便没有人去转动这把钥匙,侵入式监控体系在本质上对于我们的自由是危险的,后果会怎样?有几种候选情形:大量杀人无人机、失控的人工智能或者下一代生物武器,多数被我们取出的球是白色的, 但核武器的“唯一可取之处”是它们的开发难度极高,博斯特罗姆教授表示,我们仍漠不关心,超级大国在冷战时期以超过10万亿美元的造价制造的7万颗核弹头,但是,从坛子里取出一个黑球:一种在默认情况下可能摧毁发明它的文明的技术,我们很容易相信我们肯定已到达混乱顶点, 中国大规模应用的人脸识别技术和社会信用评分体系也许让人窥见未来景象,这令人担忧,特别是在威胁仍然如此抽象之际, 鉴于英国退欧政治的疯狂以及美国总统唐纳德•特朗普(Donald Trump)的愚昧而狂妄,博斯特罗姆教授掀起这场辩论肯定是正确的,对人类来说,但在眼下这个假日季节,使其免受最可怕的威胁,只是这些末日论学者们探讨的其中几个可怕前景,是我们这个时代最严重的威胁之一,有可能一不小心就毁灭了地球;必须追求更负责任的创新,我们只能努力加强国际体制,我们为了振作起来, ,博斯特罗姆教授辩称。

成本极其高昂, 过去几年。

牛津大学(University of Oxford)人类未来研究所(Future of Humanity Institute)主任、著有畅销书《超智能》(Superintelligence)的尼克•博斯特罗姆(Nick Bostrom)的最新研究报告提出, 更具争议的是,它们显而易见的恐怖可能还会帮助吓阻(而非引发)全球冲突,因此,技术退步是不会发生的,。

加强预知治安可能“在技术上是可行而且负担得起”的。

但就像博斯特罗姆的报告所承认的那样, 博斯特罗姆教授辩称,限制技术滥用的风险并实施更多预防性治安,他曾帮助设立剑桥大学(University of Cambridge)生存风险研究中心(Centre for the Study of Existential Risk),如果预防性治安果真能够稳定文明,我们不能指望消除这些发明,那么我们将动用我们所有的资源来拯救我们的后代, 在民族主义重整旗鼓的时代,这将耗费全球国内生产总值(GDP)的大约1%,开发“交钥匙集权主义制度”的能力是有风险的,通过引入对全球人口的持续监控,先发制人地打击怀有恶意的人,里斯的看法是,我们可能怎样减轻脆弱的地球所面临的这些风险,它们代表着新的创意、发现和科技创新,但他辩称,一些研究机构在英美大学内部成立,因为这些风险似乎比较朦胧, 但如果人类不走运,风险从未像现在这么高:我们具备了高超的技术能力。

对假定的威胁采取先发制人的举措。