AI 合規資產,量子正在「重新估價」

撰文:張 烽

目前,人工智慧正以前所未有的深度融入社會生產與生活,其安全與治理體系構成了數位時代的基石。然而,一場源於物理原理的算力革命——量子計算——正悄然逼近,其潛在的顛覆性力量,讓現有的安全防線與治理框架面臨嚴峻拷問。量子計算會否顛覆既有 AI 安全與治理體系?這不僅是個技術問題,更是關乎未來數位社會秩序的全局性挑戰。當算力飛躍遭遇規則滯後,我們如何為「Q-Day」未雨綢繆?

一、量子計算如何威脅目前廣泛使用的非對稱加密演算法?

目前 AI 系統的安全,從模型傳輸、資料儲存到身分驗證,高度依賴以 RSA、ECC(橢圓曲線加密)為代表的非對稱加密演算法。這些演算法的安全性建立在「大數分解」或「離散對數」等數學難題的「計算複雜性」之上,也就是說,經典電腦在可接受的時間內無法解決這些問題。

然而,量子計算帶來了根本性的範式轉變。以 Shor 演算法為代表的量子演算法,理論上能將這些難題的求解時間從指數級降至多項式級。一篇論文的評述指出,包括 Regev 演算法及其擴展在內的最新量子演算法,正在不斷優化對非對稱密碼的破解效率。這意味著,一旦足夠規模(通常指擁有數百萬個穩定量子比特)的通用量子電腦問世,當前保護著網際網路通訊、數位簽章和加密資料的「鎖」將可能被瞬間打開。

這種威脅並非遙不可及。智源社群的研究警告,這是一種「現在進行式」的威脅:攻擊者可以現在就開始攔截並儲存加密的通訊資料(包括 AI 訓練資料、模型參數等),等待未來量子電腦成熟後再進行解密。這種「先攔截、後解密」的策略,使得所有需要長期保密的高價值資訊,包括國家機密、商業專利與個人隱私資料,都暴露在未來風險之下。因此,量子計算對非對稱加密的威脅是基礎性且系統性的,直接動搖目前 AI 乃至整個數位世界安全體系的根基。

二、面對量子計算,AI 模型訓練與資料隱私保護面臨哪些新挑戰?

AI 的發展仰賴海量資料的餵入與複雜模型的訓練,而這個過程本身就充滿隱私與安全挑戰。量子計算的介入,使得這些挑戰變得更尖銳、更複雜。

首先,資料生命週期的長期保密性失效。正如前述,現行在雲端或傳輸中加密儲存的 AI 訓練資料集,可能因未來的量子解密而徹底曝光。西交利物浦大學的全球抗量子遷移戰略白皮書明確指出,全球範圍內的對手方正在有組織地實施這種「資料收割」策略,耐心等待「Q-Day」(量子電腦實用化之日)的到來。這對於依賴敏感資料(如醫療紀錄、金融資訊、生物特徵)訓練的 AI 模型構成源頭性威脅。

其次,聯邦學習等隱私運算技術面臨新考驗。聯邦學習透過在本地訓練模型、僅交互模型參數更新來保護原始資料。然而,這些交互的梯度或參數更新資訊本身也是加密傳輸的。若底層加密被量子計算攻破,攻擊者便能反向推導出參與方的原始資料特徵,導致隱私保護機制形同虛設。

最後,模型竊取與智慧財產權保護難度急劇增加。訓練成熟的 AI 模型是企業的核心資產。目前,模型權重與架構通常透過加密方式進行分發和部署。量子計算可能使這些保護措施失效,導致模型被輕易複製、逆向工程或竄改,引發嚴重的智慧財產權侵權與安全漏洞。中國資訊通信研究院在《人工智慧治理藍皮書》中強調,人工智慧治理需應對技術濫用、資料安全等風險,而量子計算無疑會放大這些風險的破壞力。

三、量子機器學習的發展會如何影響 AI 安全與倫理審查框架?

量子計算與 AI 的結合——量子機器學習(QML)——預示著新一輪效能突破。但與此同時,它也帶來前所未有的安全與倫理新問題,對既有審查框架構成衝擊。

在安全層面,QML 可能催生更強大的攻擊工具。例如,量子演算法可能大幅加速對抗性樣本的生成,製造出更隱蔽、破壞力更強的攻擊,使得目前基於經典計算的 AI 安全防禦體系(如對抗訓練、異常偵測)迅速過時。有分析將「量子+AI」稱為網路安全的下一個生死戰場,指出必須前瞻性地完善相關監管框架。

在倫理層面,QML 的「黑箱」特性可能比經典 AI 更為深奧。其決策過程基於量子疊加與糾纏態,可能更難以解釋、稽核與追責。QML 帶來的演算法公平性、責任界定,以及技術可控性等倫理爭論與風險,已經有不少探討。目前的 AI 卫理準則(如透明、公平、可問責)在量子尺度上如何落地?監管機構如何審查一個基於量子線路、可能處於多種狀態疊加的決策模型?這些都是目前倫理審查框架尚未做好準備的難題。治理模式需要從單純的技術合規,轉向對量子特性本質及其社會影響的更深層次理解。

四、既有的 AI 治理法規(如 GDPR)能否應對量子計算帶來的安全變革?

以歐盟《一般資料保護條例》(GDPR)為代表的現行 AI 與資料治理法規,其核心原則如「設計保護與預設保護」、「資料最小化」、「儲存限制」以及「完整性與保密性」等,在理念層面仍具指導價值。然而,在具體的技術實現與合規要求上,它們正面臨量子計算帶來的「合規性鴻溝」。

GDPR 要求資料控制者採取適當的技術與組織措施以確保資料安全。但在量子威脅背景下,什麼是「適當的」加密措施?繼續使用被證明為量子不安全的演算法,很可能在未來被認定為未能履行安全保障義務。法規中關於資料外洩通知的時限要求,在遭遇利用量子計算發起、可能瞬間完成且不留痕跡的高級攻擊時,如何有效執行?

全球範圍內的立法者已經意識到變革的必要性。《2025 年度全球人工智慧治理報告》顯示,各國正加速制定專門的 AI 治理法律,設立高層級統籌機構。中國在《數位中國發展報告(2024 年)》中強調要「加快完善資料基礎制度」,持續推進「人工智慧+」行動。這些動向表明,治理體系正在積極調整。但專門針對「量子計算+AI」這一交叉領域的法規,目前幾乎仍是空白。既有法規缺乏對後量子密碼遷移時程表、QML 模型稽核標準,以及量子時代資料安全等級分類等具體問題的規定,難以有效應對即將到來的安全變革。

五、後量子密碼學在 AI 系統中的應用前景與實施難點是什麼?

因應量子威脅最直接的技術方案是後量子密碼學(PQC)。PQC 是指能抵抗量子電腦攻擊的密碼演算法,它並非基於量子原理,而是基於新的、被認為連量子電腦也難以快速解決的數學難題(如格、編碼、多變數等)。

在 AI 系統中的應用前景廣闊且迫切。PQC 可用於保護 AI 工作流程的每一個環節:使用 PQC 演算法加密訓練資料與模型檔案;使用 PQC 數位簽章驗證模型來源的完整性與真實性;在分散式 AI 計算節點之間建立 PQC 安全通訊通道。Fortinet 指出,PQC 並非遙遠的概念,而是保護數位系統免受潛在量子威脅的迫切需要的實用解決方案。

然而,全面實施 PQC 面臨顯著難點:

效能與相容性挑戰:許多 PQC 演算法在金鑰尺寸、簽章長度或計算成本上遠大於現有演算法,將其整合到對計算效率與延遲敏感的 AI 訓練與推論流程中,可能帶來效能瓶頸。同時,需要升級所有相關的硬體、軟體與通訊協定堆疊以確保相容。

標準與遷移的複雜性:儘管美國 NIST 等機構正在推進 PQC 標準化流程,但最終標準的確定與全球統一仍需時間。北京市密管局發布的商密前沿動態顯示,業界正積極開源實作 NIST 候選演算法,以推動各產業應對威脅。整個遷移過程是一項浩大且複雜的系統工程,涉及風險評估、演算法選擇、混合部署、測試與全面更替,對於結構複雜的 AI 生態系而言尤其如此。

新型安全風險:PQC 演算法本身屬於較新的研究領域,其長期安全性尚未經過像 RSA 那樣長達數十年的實戰密碼分析考驗。在 AI 系統中倉促部署可能存在未知漏洞的 PQC,本身也是一種風險。

六、面對這場變革,被動等待「Q-Day」是危險的

量子計算對既有 AI 安全與治理體系的顛覆性影響是真實且迫近的。它並非完全推翻既有體系,而是透過瓦解其密碼學基礎、放大其資料風險、複雜化其倫理問題、凸顯其法規滯後性,迫使整個體系必須進行一場深刻的、前瞻性的升級。

面對這場變革,被動等待「Q-Day」是危險的。我們建議採取以下可執行的行動路徑:

啟動量子安全風險評估與清單編制:立即對核心 AI 資產(尤其是涉及長期敏感資料的模型與資料)進行量子威脅評估,識別最脆弱的環節,建立遷移優先序清單。

制定並實施 PQC 遷移路線圖:關注 NIST 等標準機構的進展,在 AI 系統的開發與運維中開始規劃 PQC 整合。優先在新建系統與關鍵系統中採用「加密敏捷性」設計,以便未來無縫替換密碼演算法。可考慮目前採用「經典+PQC」的混合加密模式作為過渡。

推動治理框架的適應性更新:產業組織、標準機構與監管方應協作,研究並將量子抗性要求納入 AI 安全標準、資料保護法規與產品驗證體系。為 QML 的倫理審查預先建立研究框架與指南。

加強跨領域人才培養與研究:培育既懂 AI 又懂量子計算與密碼學的複合型人才,鼓勵在 AI 安全研究中納入量子威脅模型,資助抗量子 AI 安全技術的研發。

量子計算帶來的挑戰是巨大的,但它也為我們提供了一個重新審視與加固數位世界根基的契機。透過主動規劃、協同創新與敏捷治理,我們完全有可能構建出一個既能擁抱量子算力紅利、又能抵禦其安全風險的、更堅韌的 AI 未來。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言