福利加碼,Gate 廣場明星帶單交易員二期招募開啟!
入駐發帖 · 瓜分 $20,000 月度獎池 & 千萬級流量扶持!
如何參與:
1️⃣ 報名成為跟單交易員:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 報名活動:https://www.gate.com/questionnaire/7355
3️⃣ 入駐 Gate 廣場,持續發布交易相關原創內容
豐厚獎勵等你拿:
首帖福利:首發優質內容即得 $30 跟單体验金
雙周內容激勵:每雙周瓜分 $500U 內容獎池
排行榜獎勵:Top 10 交易員額外瓜分 $20,000 登榜獎池
流量扶持:精選帖推流、首頁推薦、周度明星交易員曝光
活動時間:2026 年 2 月 12 日 18:00 – 2 月 24 日 24:00(UTC+8)
詳情:https://www.gate.com/announcements/article/49849
哈拉里的人工智能警告:當機器掌握語言,誰來掌控法律與信仰?
在世界經濟論壇上,歷史學家尤瓦爾·諾亞·哈拉瑞對人工智慧發出了緊急警告——這不是一個遙遠的威脅,而是對人類核心能力的迫在眉睫挑戰。他的論點十分嚴峻:我們用來治理社會的系統幾乎完全依賴語言,這使它們在面對現在能以空前規模讀取、保存和操控文本的機器時,變得格外脆弱。
語言危機:哈拉瑞的核心論點
哈拉瑞以不同於大多數AI討論的角度來框定這個挑戰。他不將AI視為人類控制的被動工具,而是將其定位為一個新興的自主代理類別——自我導向的系統,越來越具有獨立運作的能力。這個區別很重要,因為它重新定義了賭注。
「人類不是靠體力征服世界,而是掌握了語言的力量,」哈拉瑞解釋道。語言使我們能夠協調數百萬陌生人朝著共同目標努力。它成為我們的超能力。然而,他認為,現在我們面臨一個悖論:建立在語言之上的系統——宗教、法律、金融——卻是最容易受到能生成和合成大量文本的機器威脅的。
三大領域遭受圍攻:法律、金融與宗教
哈拉瑞在三個關鍵制度中提出了明確的擔憂。法律系統通過用語言撰寫的法典運作。金融市場則依賴語言合同和文件。宗教——猶太教、基督教、伊斯蘭教等——其權威根基於神聖文本,而這些文本如今AI系統可以閱讀、分析,甚至以與人類學者媲美的權威重新詮釋。
「如果法律由文字構成,最終由機器控制法律系統,」他警告道。「如果宗教建立在語言之上,AI將重塑宗教。」這個推論不可避免:建立在文本權威上的制度,面臨著由機器成為其主要解釋者的前景。
哈拉瑞進一步將此時刻比作歷史上的先例:由國家雇用的雇傭兵最終奪取了權力。他敦促領導人緊急決策,是否應賦予AI系統在金融和法律領域法律人格與權利——在其他人未經民主程序做出決定之前。已有幾個美國州份,如猶他州、愛達荷州和北達科他州,已經明確禁止AI被認定為法律主體,但哈拉瑞認為,這場辯論將在全球範圍內加劇。
本德反擊:AI行銷神話
並非所有人都接受哈拉瑞的框架。華盛頓大學語言學家艾米莉·M·本德提出了尖銳的反駁:哈拉瑞對AI自主性的強調,實際上掩蓋了推動這些系統的人類決策。她認為,將機器人格化為自主行動者,會轉移責任,讓建造和部署這些系統的企業與機構逃避責任。
「‘人工智慧’這個詞本身基本上是一個行銷標籤,」本德對Decrypt表示。「它並不描述一套連貫的技術。」她拒絕認為這些系統代表某種中立或必然的事物。相反,她認為,設計來模仿醫生、律師、神職人員或其他專業人士的系統,具有特定目的:它們通過假裝具有權威來進行詐騙,卻缺乏責任追究。
本德質疑這些應用的根本合法性:「一個聽起來像醫生或律師的東西,其目的究竟是什麼?答案是詐騙。」
責任缺口與緊迫的抉擇
根據本德,真正的危險不在於AI的自主性,而在於人類與之的關係。當人們遇到看似權威、缺乏背景、被呈現為無誤的系統輸出——且沒有任何人類責任追究——他們就會變得脆弱,容易受到影響。這些輸出會在沒有透明責任的情況下,塑造信念和決策。
「人們會因為這些系統看起來像全知的來源而傾向於相信它們,」本德說。「但風險在於,他們會利用這些輸出來塑造自己的信念和行動,而沒有意識到推動這些系統的背後是人類的利益。」
哈拉瑞與本德之間的辯論反映出一個關鍵的張力:我們應該害怕超出我們控制範圍的AI作為一個新興代理,還是應該專注於建造和部署這些系統的人類制度與企業行為者?哈拉瑞的警告帶有緊迫感——現在就行動,否則將失去塑造結果的能力。本德的批評則呼籲明確責任——認識到每個系統中都嵌入的人類選擇。
對於全球領導人來說,哈拉瑞的結語依然直白:「十年內,決定AI是否應在金融市場、法院或教堂擁有法律地位,已經太遲。有人會為你做出決定。」現在的問題是,這個警告是否會促使果斷行動——或如本德所暗示的,專注於AI人格的討論,反而會分散對於追究人類制度責任的更艱難工作的注意力。