bot.gif
取消
选择语言
确认
简体中文
繁体中文
English
close
正在加载
历史学家尤瓦尔·诺亚·赫拉利警告:人工智能或将接管语言、法律和宗教
互联网 · 2026-01-21 05:18
390
摘要
这位历史学家在达沃斯表示,人工智能正在演变成一种自主代理,最终可能会迫使各国政府决定机器是否应该获得法律认可 。
币界网报道:

历史学家兼作家尤瓦尔·诺亚·赫拉利周二在世界经济论坛上警告说,随着人工智能越来越多地通过自主代理而不是被动工具运行,人类正面临失去对语言控制权的风险,他称语言是人类的决定性“超级大国”。

《人类简史》的作者哈拉里经常在全球关于人工智能社会影响的辩论中发出声音。他认为,法律条文、金融市场和有组织的宗教几乎完全依赖语言,这使得它们特别容易受到能够大规模生成和操纵文本的机器的冲击。

“人类之所以能统治世界,并非因为我们体格最强壮,而是因为我们发现了如何运用语言让成千上万、数百万甚至数十亿的陌生人合作,”他说道。“这就是我们的超能力。”

哈拉里指出,犹太教、基督教和伊斯兰教等宗教都以神圣文本为基础,他认为人工智能能够阅读、记忆和综合大量的文字,这可能使机器成为最权威的经文解释者。

他说:“如果法律是由文字构成的,那么人工智能将接管法律体系;如果书籍只是文字的组合,那么人工智能将接管书籍;如果宗教是由文字构建的,那么人工智能将接管宗教。”

在达沃斯,哈拉里还将人工智能系统的扩散比作一种新型移民,并表示围绕这项技术的辩论很快将聚焦于各国政府是否应该赋予人工智能系统合法性。人格包括犹他州、爱达荷州和北达科他州在内的几个州已经通过法律,明确规定人工智能在法律上不能被视为人。

哈拉里在发言结束时警告世界各国领导人,必须迅速制定人工智能相关法律,不要想当然地认为这项技术会保持中立。他将当前推动采用这项技术的浪潮比作历史上雇佣兵后来夺取政权的案例。

“十年后,你再去决定人工智能是否应该像人一样在金融市场、法庭和教会中发挥作用就太晚了,”他说。“其他人早就替你做了决定。如果你想影响人类的未来走向,现在就必须做出决定。”

哈拉里的言论或许会令那些担忧人工智能快速扩散的人感到不安,但并非所有人都认同他的观点。教授艾米莉·M·本德华盛顿大学的一位语言学家表示,像哈拉里那样对风险进行定位只会转移人们对负责构建和部署人工智能系统的人类行为者和机构的注意力。

“在我看来,这实际上是为了掩盖那些构建这些系统的人和公司的行为,”本德尔说。解密在一次采访中.“而且,他们还要求所有人放弃我们在许多领域的人权,包括使用我们语言的权利,任由这些公司以所谓的人工智能系统为幌子,随心所欲地支配我们。”

本德否定了“人工智能”描述的是一种清晰或中立的技术类别的观点。

“人工智能这个词指的并非一套连贯的技术,”她说。“它实际上一直都是一个营销术语,”她还补充说,旨在模仿医生、律师或神职人员等专业人士的系统缺乏真正的应用场景。

“那些听起来像医生、律师、神职人员等等的人,他们的目的是什么?”本德说,“目的就是诈骗。就这么简单。”

哈拉里指出,这种做法的使用日益增多。人工智能代理Bender 表示,在管理银行账户和业务往来方面,风险在于人们很容易信任机器生成的、看似权威的输出结果——而这些结果却缺乏人为的问责。

“如果你有一个系统,你可以向它提出问题,然后得到一个看似答案的结果——这个答案脱离了语境,也无需承担任何责任,却被包装成来自某个无所不知的先知——那么你就能理解为什么人们会希望它存在,”本德说。“我认为这其中存在很大的风险,人们会开始依赖它,并利用这些结果来塑造他们的想法、信念和行为。”

相关资讯