Gate 廣場創作者新春激勵正式開啟,發帖解鎖 $60,000 豪華獎池
如何參與:
報名活動表單:https://www.gate.com/questionnaire/7315
使用廣場任意發帖小工具,搭配文字發布內容即可
豐厚獎勵一覽:
發帖即可可瓜分 $25,000 獎池
10 位幸運用戶:獲得 1 GT + Gate 鸭舌帽
Top 發帖獎勵:發帖與互動越多,排名越高,贏取 Gate 新年周邊、Gate 雙肩包等好禮
新手專屬福利:首帖即得 $50 獎勵,繼續發帖还能瓜分 $10,000 新手獎池
活動時間:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
詳情:https://www.gate.com/announcements/article/49112
特朗普與馬斯克 2 小時 X Space 暢聊政策,一批政治 Meme 代幣玩梗建倉
為何 AI 需要治理
在中英文兩個不同的 AGI 開發者生態社區中,中文社區更多討論 AI 技術所帶來的生產力提升,更加側重 AI 工具的開發與需求挖掘,對於已有產業結構的升級與改造,而在英文開發社區中,更加註重以 Auto-GPT 為代表的一種技術範式,實現完全自動化與高度智能化的 AGI 自動化任務執行。
這兩種技術路徑的探索不同,意味著中文開發者社區與英文開發者社區,在未來所面臨的 AI 風險與治理的區別。英文社區的 AI 大佬們對於 AI 的風險問題意識,要遠遠高於中國地區的科技公司高管。
例如在 OpenAI Charter 中可以看到,OpenAI 從早期發展中,就始終將保持對 AI 安全性與以及合理的政策監管的考慮;在馬斯克發起的停止 GPT-5 訓練的呼籲中,中文區是缺席的。中文社區的開發者應該以全球開發者自居,更加主動的思考並探索,如何應對 AGI 時代的全球新風險,以及針對 AGI 的治理探索。
在 OpenAI 最新的文章中,對於超級智能的治理,所提出的設想是成立國際監管機構,事實上,中國應該主動積極參與這一進程,否則 AGI 時代的技術秩序話語權將處於劣勢,後續修正的成本將會是高昂的,這個修正成本不僅僅是經濟效益的成本,更重要的是基於無處不在的 AI 道德規訓的隱形侵入。
正如《Despite “super-human” performance, current LLMsare unsuited for decisions about ethics and safety》這篇論文所提到:
“當提示模型為其答案提供理由時,我們會遇到各種嚴重問題,包括對於最令人髮指的情境的辯護和對於原始情境中不存在的事實的錯覺。這些問題,再加上上述改寫攻擊和系統性不同的錯誤,明確表明當今的 LLMs 在進行倫理或安全考慮的決策方面是不合適的。”
當 AI 突破倫理安全的邊界時,以一種看似合理性的語境引導公眾進入一種道德立場時,以大型語言模型為代表的對話式交流,將持續完善並構建這一道德立場的各種事實與理論的依據補充,AI 公司得以通過“推理幻境”實現對公共領域的“道德規訓”。
從公共政策與個人隱私數據的保護出發,我們能否探討一種分佈式的 AI 治理模式,由於 AI 賦能了新一代超級個體的崛起,未來的個體將普遍擁有超越當前一般公司組織的海量數據,個體理應擁有參與公共對話更大的話語權。
以 DAO 為代表了下一代組織範式,對於超級個體的數據確權與交易保障上,又將如何得到公共政策的支持與保障,這些都是我們當下即將面對的治理難題。
超級智能的治理
Sam AltmanGreg BrockmanIlya Sutskever
現在是開始思考超級智能治理的好時機——未來的人工智能系統將比通用人工智能(AGI)甚至更具突破性能力。
從我們目前所見的情況來看,可以想象在接下來的十年內,人工智能系統將在大多數領域超過專家水平,並且能夠執行與今天最大的企業之一相當的生產活動。
無論是在潛在的好處還是不利方面,超級智能將比過去人類所面臨的其他技術更加強大。我們可以擁有一個極大繁榮的未來,但我們必須管理風險才能實現這一點。
考慮到潛在的生存風險,我們不能僅僅採取被動應對的策略。核能是一個常用的歷史例子,具有這種特性的技術;合成生物學是另一個例子。
我們必須減輕當今人工智能技術的風險,但超級智能將需要特殊的處理和協調。
一個起點在我們成功地引導這一發展過程中,有許多重要的想法需要我們密切關注。在這裡,我們初步探討了其中三個想法。
首先,我們需要在主要開發努力之間實現一定程度的協調,以確保超級智能的發展方式既能確保安全,又能促進其與社會的無縫融合。這可以通過多種方式實現:各國政府可以共同設立一個項目,吸納當前的眾多努力;或者我們可以共同達成協議(在像下文所提到的新組織的支持下),將人工智能能力的邊界增長速度限制在每年特定的比率內。
當然,我們還應該對個別公司提出極高的責任要求,要求其行事嚴謹。
其次,我們很可能最終需要類似於國際原子能機構(IAEA)的組織來監管超級智能的努力。任何超過特定能力(或計算等資源)門檻的努力都應受到國際權威機構的監督,該機構能夠檢查系統、要求進行審計、測試是否符合安全標準,對部署程度和安全級別等進行限制。
追蹤計算和能源使用情況可能會產生很大的效果,並且使我們對這一想法的實施能力抱有一些希望。
作為第一步,公司可以自願同意開始實施符合未來可能由該機構要求的一些要素,作為第二步,個別國家可以實施這一機構的框架。
這樣的機構應專注於降低潛在的生存風險,而不是解決應由個別國家處理的問題,比如定義人工智能所允許表達的內容。
第三,我們需要具備技術能力來確保超級智能的安全性。這是一個開放的研究問題,我們以及其他人正在投入大量努力。
不在範圍內的內容我們認為,允許公司和開源項目在顯著能力門檻以下開發模型是很重要的,而無需像我們在此處描述的那樣進行監管(包括繁瑣的許可證或審計等機制)。
當前的系統將為世界創造巨大的價值,雖然它們確實存在風險,但這些風險水平與其他互聯網技術相當,並且社會對其的應對措施似乎是適當的。
相比之下,我們所關注的系統將擁有超越目前任何技術的能力,因此我們應當小心不要通過將類似的標準應用於遠低於這個門檻的技術,從而削弱對這些系統的關注。
公眾的參與和潛在影響然而,對於最強大的系統的治理以及涉及它們部署的決策,需要進行強有力的公眾監督。***我們認為全球人民應該以民主方式決定 AI 系統的界限和默認設置。***儘管我們尚不清楚如何設計這樣的機制,但我們計劃進行實驗來推動其發展。在廣泛的界限內,我們仍然認為個體用戶應對所使用的 AI 系統的行為具有較大的控制權。
考慮到風險和困難,值得我們去思考,為什麼要開發這項技術。
在 OpenAI,我們有兩個基本原因。首先,我們相信這項技術將帶來一個比我們今天能夠想象的世界更美好的未來(在教育、創意工作和個人生產力等領域,我們已經看到了一些早期的例子)。
世界面臨著許多問題,我們需要更多的幫助來解決這些問題;這項技術可以改善我們的社會,並且每個人利用這些新工具的創造能力必定會讓我們感到驚訝。經濟增長和生活質量的提高將是令人驚歎的。
其次,我們認為停止超級智能的創造在直覺上是一項具有風險和困難的任務。
因為超級智能所帶來的好處是如此巨大,每年建造它的成本都在降低,建造它的參與者數量也在迅速增加,而且它本質上是我們技術發展的一部分。要停止它的發展,需要類似於全球監控制度的措施,但即使採取這樣的措施也不能保證取得成功。
因此,我們必須做到正確無誤。
通往 AGI 之路在這裡實現認知與資源的價值轉化,並找到志同道合的 AGI 超級個體,並由此構建基於 DAO 模式的 AGI 協作與共創社區。
![]()
1,頂尖 AI 論文的分享與解讀,幫你搶先別人幾個月的時間建立對前沿技術趨勢的判斷先機,其次,有機會參與 AI 論文沙龍,以及對接論文作者進行合作的可能;
2,在這裡分享優質的信息源,以及探索優質信息源如何助力個人事業,建立長期可持續的知識智庫;(例如中英文社區的知識套利)
3,關於 AGI 與 Web3 時代,個體與公司的發展戰略分析,鞏固基本盤與撬槓槓的發展策略;
* 共創主理人計劃即將啟動;