比核子危机还严重 让人类灭绝的最大威胁是它!

更新:
2023年07月17日 22:27
比核子危机还严重 让人类灭绝的最大威胁是它!
一项研究指出,人工智能(AI)是本世纪末出现世界末日的最大威胁。(互联网)

事在人为

1947年,为了警醒人们科技发展不受限制对人类的威胁,“末日之钟”正式设立,钟上的午夜12点,象征着世界末日的来临。

负责设立末日时钟的美国芝加哥大学《原子科学家公报》会在每年1月调整分钟,越接近12点,即代表人类社会离末日更近。

过去数十年,影响该时钟拨动的主要因素是核战争。千禧年后,气候变化也成为另一影响末日时钟的指标,但接下来,人工智能(AI)很可能才是最能影响人类距离世界末日有多近的关键因素。

末日之钟。(路透社)

美国最近一项研究显示,AI或已取代核子危机,成为未来导致人类社会出现重大灾难,乃至世界末日的最大威胁。

据《经济学人》报道,这项研究的参与者包括美国芝加哥联邦储备银行经济学家卡格尔(Ezra Karger)及发明“超级预测师”这一词汇的美国宾夕法尼亚州大学政治学者泰特洛克(Philip Tetlock)。

该研究找来两组人马,分别针对可能导致人类社会发生重大灾难,甚至灭绝(世界末日)的几种威胁做出预测。

其中一组人马,是近年来因精准预测某些事件(如美国前总统特朗普当选)而声名大噪的超级预测师。

(注:所谓的超级预测师,绝非看水晶球或塔罗牌预言的占卜师之流。相反的,他们精于计算概率,排除个人偏见,因而较一般常人更擅长预测未来,有时甚至比特定领域专家更精准。)

另一组人马则是名副其实的专家。他们当中包括研究核战、生化战争、AI,以及人类灭绝等相关领域的专家。

“超级预测师”组别共有89人,专家组则包括65名相关领域专家,以及15名专精人类灭绝风险课题的专家。

两组术业有专攻的人士被赋予相同的任务:评估世界未来发生重大灾难及人类灭绝的可能性。

重大灾难及人类灭绝的定义如下:

  • 重大灾难:全球有10%人口,或相当于八亿人死亡(注:二次大战的全球死亡人数占当时人口的3%)
  • 人类灭绝:意即末日现象,全球人类因故死亡,最后仅存最多5000人存活。

专家组认为,人类社会在2100年前发生一次重大灾难的可能性大约为20%,人类灭绝的可能性则为6%。

超级预测师比较乐观,他们认为重大灾难的可能性约为9%,人类灭绝的可能性则是1%。

但值得注意的是,两组人马皆认为AI是人类世界遭遇重灾或灭绝的最大威胁。

长期以来被认为最可能导致人类灭亡的核子危机,反倒不再是威胁之首。

在“重大灾害部分”,核子危机位居AI之后排名第二;“人类灭绝”部分,更是排到了“人造病毒”之后,位居第三。

核武器不再被部分专家视为人类文明的最大威胁。(路透社)

尽管一致认同AI是最大威胁,但超级预测者仍较专家乐观。

超级预测者认为AI造成重大灾难的中位数机率为2.1%,导致世界末日(人类灭绝)的机率则是0.38%。

相较之下,专家的预估悲观得多。他们认为AI引发重大灾难的机率为12%,并有3%的机率导致世界末日。

AI是未来对人类社会存亡最大的威胁。(路透社)

两组人马意见分歧,其中一部分原因是后者更仰赖数据分析。

由于AI科技在2010年代才问世,近一两年才受到广泛关注,这让超级预测师没有太多可用于分析的历史数据。

但除此之外,超级预测者还倾向认为,一旦AI造成较小规模的灾难,人类将实施严格的监管措施,避免更严重的事件发生。

专家则不认为人类会那么“识相”,他们担心,商业及地缘政治的诱因可能凌驾人类对AI的担忧。即使AI真的带来了一些实质伤害,人们仍会因利大于弊的考量而放任其发展。

换言之,AI是否会把人类推向世界末日,取决于人们未来如何看待这项急速发展的科技。

包括被誉为“AI教父”的辛顿(Geoffrey Hinton)在内的一群科学家早前已联署呼吁,降低AI技术带来的“人类灭绝”风险应被列为全球优先事项。

美国前国务卿基辛格也对AI技术崛起,可能加速第三次世界大战发生感到不安。

末日之钟自设立以来已先后调整过25次,俄乌战争的爆发,让末日时钟距离午夜仅剩90秒,是有史以来最接近世界末日威胁的纪录。

事在人为的隐喻再明显不过,人类本身才是让世界更接近末日的罪魁祸首。

就如核弹本身并不会直接导致世界末日,人类如何运用它才是关键。因此,与其说AI技术可能导致世界末日,不如说人类如何运用AI技术,将决定我们究竟距离世界末日还有多远。

想分享你的文章?

请电邮:antseditorial@redants.sg