快速导航×

AGI时代财富大洗牌Hinton分解未来财富流向普通人何去何从2025-02-04 04:37:13

  随着AGI/ASI的不断逼近,比人类更智能的系统即将登场,彻底颠覆人类社会的面貌。Hinton等专家纷纷预测,一旦AGI能够取代人类劳动力,人类将「富者越富,穷者越穷」,社会结构将发生翻天覆地的变化。

  在《经济蓝图》中,OpenAI描绘了AI带给人类的未来:不久的将来,普通人的生活将比现在最「壕」的富豪,生活得更好。

AGI时代财富大洗牌Hinton分解未来财富流向普通人何去何从

  虽然只是一种可能的预测,但Newman对AGI的解释,代表了大多数领域专家对下一代AI的看法。

  AGI距离实现仅剩数年时间,许多专家或AI巨头的CEO还给出了更加具体的时间节点。

  加拿大英属哥伦比亚大学计算机科学教授,Jeff Clune也认同Hinton的观点。

  他表示:「我认为超级智能完全有机会,而且这个机会并不渺茫,今年就可能出现。我们已经进入了逐月接近超级智能的时代。而且每过去一个月,这种可能性还会增长。」

  在最近的一次公开讨论中,Geoffrey Hinton预测,AI会加剧贫富差距,使社会变得「越来越糟」。

  我们谈论的是生产力的巨大提升。所以每个人都应该能获得更多的商品和服务,每个人应该都变得更好,但实际上情况可能并非如此。

  生产力的巨大提升将为大公司和富人赚取更多的钱,从而加大富人和失业者之间的差距。

  这主要是因为失业的人将失去收入,而那些掌控AI的人——即生产商品和服务的人——将在没有劳动成本的情况下,享受金融特权。

  很难让人相信,他们不是为了将来的利润,而是为了全体人类的美好未来,在免费「打工」。

  毕竟,就连OpenAI都快变成「CloseAI」了:奥特曼正在将OpenAI从非营利组织转变为更加商业的营利组织。

  能替代劳动力的AI,将迅速改变人类与非人类生产要素的相对重要性,这会减少社会关心人的动机,同时使现有的权力更加巩固。

  现在如果想用钱实现自己的抱负,面临的最深层问题可能是招聘不到合适的人才,因为招聘人才面临几个问题:

  判断人的才能往往很难,除非自己有相当的天赋。否则,通常会错过真正的人才。

  而资金转化为人才的最大瓶颈,在于许多顶尖人才拥有复杂的人类偏好,他们比AI更难被钱收买。

  顶尖的天才往往对学科或事业,有着高度的献身精神和使命感,视「金钱为粪土」。

  显然,AI并没有「人性」,无论执行什么类型的任务,都「无怨无悔」,远超人类。

  这意味着,在能替换劳动力的AI出现时,拥有大量资本的人将拥有永久性的优势。

  他们将拥有比如今的富人更多的权力:只要自由体制(liberal institutions)依旧强大,他们不一定凌驾在人民之上,但至少是在物质和精神上将更有权势。

  而且没有新兴势力可以击败他们,因为现在资本可以轻易地转化为任何领域的「超人」劳动力。

  此外,世界上掌握权力的机构,将不再有动力去关心人们,以维持或增长它们的权力,因为所有真正的权力都将来自AI。

  如果每个人都拥有有意义的无条件基本收入(或类似措施),并且经济保留以人为本的部分,也可能维持人们的购买力。

  往坏处想,AI亿万富翁拥有近乎无限且不受约束的权力,并且是永久的贵族阶层。

  阶级之间的权力差异可能会让现代人感到颤抖,就像现代人无法认同封建等级制度一样。

  在L Rudolf L的理论基础上,AI治理专家Luke Drago进一步解释了AI的隐患,他称之为:「智能诅咒」,即因为AGI,当权者失去投资人民的激励。

  AGI将取代文明的上一代资源。对于煤炭来说,是木材。对于AGI来说,就是人力资源。

  一些国家虽然自然资源丰富,拥有天然的收入来源,但经济发展模式单一,普通公民的生活却没有得到改善。

  导致资源诅咒的因素有很多,但核心因素之一是:创造了不关心人民经济福祉的激励。

  最后结果就是,普通人无法维持生计。人类没有用武之地,因此也不会获得报酬。

  这就是智能诅咒——一旦当权者创造并实现了通用智能,他们将失去投资人民的激励。

  一旦出现比人更好、更便宜、更快、更可靠的AI系统,智能诅咒就开始生效。之后的1到5年内,恶果就会显现。

  因为考虑到石油的气候影响以及可再生能源的崛起,电竞竞猜平台现在任何国家都能生产能源。产油国被迫寻求新的收入来源,在这个过程中放权给人民,从而摆脱了「资源诅咒」。

  而AGI不会有这种效果——后续的模型都会比上一代更强大,电竞竞猜平台少数人会一直处于垄断地位。

  AGI也不会像石油那样被「耗尽」。计算能力或现有能源可能被耗尽,但随着时间的推移,计算能力变得更加便宜,能源也变得越来越绿色。

  尽管关于这项技术的范围和时间框架的预测可能各不相同,但研究人员普遍认为超级智能是不可避免的。

  对Hinton来说,答案在于选举那些高度重视监管AI的政治家:「我们应该做的是鼓励政府迫使大公司进行更多的研究,研究如何在开发这些技术时保持它们的安全性。」

  然而,Google DeepMind的高级研究顾问Clune表示,许多领先的AI公司秉持正确的价值观,并且「正在努力做得对。」

  「比起正在开发领先AI模型的公司,我更担心的是那些其他试图迎头赶上的国家和组织,它们的顾忌远没有头部的AI实验室那么多」。

  Clune提出的实际解决方案,类似于核时代的做法,那就是邀请所有主要的AI参与者定期进行对话。

  Clune说道「这是人类历史上最大的一次赌注,甚至比核武器的还要大」,并建议全球的研究人员相互了解彼此的进展,在需要时放慢研发进度。

  「赌注极其高。如果我们做对了,收益也非常大。电竞竞猜平台如果我们做错了,我们可能在讨论人类文明的终结。」