福利加码,Gate 广场明星带单交易员二期招募开启!
入驻发帖 · 瓜分 $20,000 月度奖池 & 千万级流量扶持!
如何参与:
1️⃣ 报名成为跟单交易员:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 报名活动:https://www.gate.com/questionnaire/7355
3️⃣ 入驻 Gate 广场,持续发布交易相关原创内容
丰厚奖励等你拿:
首帖福利:首发优质内容即得 $30 跟单体验金
双周内容激励:每双周瓜分 $500U 内容奖池
排行榜奖励:Top 10 交易员额外瓜分 $20,000 登榜奖池
流量扶持:精选帖推流、首页推荐、周度明星交易员曝光
活动时间:2026 年 2 月 12 日 18:00 – 2 月 24 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49849
哈拉里的人工智能警告:当机器掌握语言时,谁来掌控法律与信仰?
在世界经济论坛上,历史学家尤瓦尔·诺亚·哈拉里对人工智能发出了紧急警告——这不是一个遥远的威胁,而是对人类核心优势的迫在眉睫的挑战。他的论点十分严峻:我们用来治理社会的系统几乎完全依赖语言,这使它们在面对现在能够以空前规模阅读、保存和操控文本的机器时变得格外脆弱。
语言危机:哈拉里的核心论点
哈拉里的看法与大多数关于AI的讨论不同。他不将AI视为人类控制的被动工具,而是将其定位为一种新兴的自主代理——自主运行、日益独立的系统。这一区别很重要,因为它重新定义了风险。
“人类征服世界不是靠体力,而是靠掌握了语言的力量,”哈拉里解释道。语言使我们能够协调数百万陌生人实现共同目标。它成为了我们的超级力量。然而,他指出,现在我们面临一个悖论:建立在语言基础上的系统——宗教、法律、金融——最容易受到能够生成和合成大量文本的机器的影响。
三大领域遭受威胁:法律、金融与宗教
哈拉里明确表达了对三个关键机构的担忧。法律体系通过用语言编写的法规运作。金融市场通过语言合同和文件进行操作。而宗教——犹太教、基督教、伊斯兰教等——其权威根植于神圣文本,而这些文本如今可以被AI系统阅读、分析,甚至以与人类学者相媲美的权威重新诠释。
“如果法律由文字组成,机器最终将控制法律体系,”他警告说。“如果宗教建立在语言之上,AI将重塑宗教。”不可避免的暗示是:建立在文本权威基础上的机构,面临着机器成为其主要解释者的前景。
哈拉里还将这一时刻比作历史先例:由国家雇佣的雇佣兵最终夺取了政权。他敦促领导人紧急决定,是否应赋予AI系统在金融和法律领域法律主体资格和权利——在其他人未经民主程序做出决定之前。已有几个美国州,如犹他州、爱达荷州和北达科他州,明确禁止将AI认定为法律主体,但哈拉里认为,这场辩论将在全球范围内加剧。
本德反击:“AI”营销神话
并非所有人都接受哈拉里的观点。华盛顿大学的语言学家艾米莉·M·本德提出了尖锐的反驳:哈拉里强调AI的自主性实际上掩盖了推动这些系统的人类决策。她建议,通过将机器拟人化为自主行动者,我们转移了责任,远离了那些开发和部署它们的公司和机构。
“‘人工智能’这个词本身基本上是一个营销标签,”本德告诉Decrypt。“它并不描述一套连贯的技术。”她拒绝了这些系统代表某种中立或必然的观点。相反,她认为,旨在模仿医生、律师、牧师或其他专业人士的系统,实际上是为了实现特定目的:它们通过表现得具有权威性而进行欺诈,却缺乏责任追究。
本德质疑这些应用的根本合法性:“一个听起来像医生或律师的东西,其目的是什么?答案就是欺诈。”
责任缺失与紧迫的抉择
根据本德的观点,真正的危险不在于AI的自主性,而在于人类与之的关系。当人们遇到看似权威、无上下文、被呈现为无误的系统输出——而没有任何人类责任追究——他们就变得容易受到影响。这些输出会在没有透明责任的情况下塑造信仰和决策。
“人们会因为这些系统看起来像全知的来源而倾向于相信它们,”本德说。“但风险在于,他们会利用这些输出来塑造自己的信仰和行动,而没有意识到推动这些系统的背后是人类的利益。”
哈拉里与本德的辩论反映出一个关键的紧张关系:我们应当害怕超出我们控制的AI作为新兴的代理,还是应当关注那些构建和部署这些系统的人类机构和企业行为?哈拉里的警告充满紧迫感——现在行动,否则将失去塑造结果的能力。本德的批评则强调责任的明确——认识到每个系统中都嵌入了人类的选择。
对全球领导人而言,哈拉里的最后一句话依然直白:“十年后,决定AI是否应在金融市场、法院或教堂中拥有法律地位已经太迟。别人会为你做出决定。”现在的问题是,这个警告是否会促使果断行动——还是像本德所建议的那样,过度关注AI主体资格会分散对更难的工作——追究人类机构责任的注意力。