澳大利亞的官方AI安全計劃不過是一個點點而已。這樣是否足夠?

(MENAFN- The Conversation) 上週,澳大利亞領先的人工智慧(AI)研究人員托比·沃爾什(Toby Walsh)警告說,澳大利亞缺乏AI的監管措施,正使年輕人面臨“為大科技公司利益犧牲”的風險。

沃爾什的言論是在政府取消自己提出建立AI專家諮詢機構的提案後發表的。取而代之的是,政府提出了國家AI計劃,其中強調投資數據中心、電信基礎設施和勞動力培訓。

該計劃還設想建立一個“AI安全研究所”(目前正在招聘員工),以及一些針對公共部門的內部AI透明度措施。到目前為止,透明度的結果並不理想。

這一切對澳大利亞的AI監管意味著什麼?

其他國家又在做些什麼?

歐盟因其AI法案而受到關注,該法案已禁止利用AI系統剝削弱勢群體或個人等行為。然而,歐洲在實施高風險AI用途的規則方面遇到困難,這些用途尚未被禁止。

澳大利亞地區的幾個政府也在制定AI法律,主要是為了在認為必要時賦予自己應對的權力。

韓國、日本和台灣——這些都不是小型的AI玩家——都制定了新法律,但都遇到了行業的預期反對。

並非所有國家都有全面的規則

包括美國和英國在內的國家,沒有任何形式的全面AI監管。

在美國,特朗普總統甚至禁止大多數州級的私人AI用途監管。儘管有反保障措施的言論,政府卻悄悄保留了對聯邦層面AI的強有力保障。

英國則走了一條更為反覆無常的路,最終與澳大利亞處於類似的狀況。由於無法決定應該做什麼,它試圖提供技術(非法律)保障,這一做法通過成立首個AI安全(現為安全)機構來實現,有人稱讚,也有人譏笑。

控制的兩難

各國在方法上的差異並不令人驚訝。政府面臨的控制困境,幾乎是英國科技學者大衛·科林里奇(David Collingridge)在近50年前描述的:

此外,澳大利亞在AI方面的監管影響力有限。它不像在礦業等領域那樣,是一個重要的全球AI玩家,因此其影響力有限。

面對這些不確定性,澳大利亞應該做些什麼?

澳大利亞的AI安全計劃

有一點是肯定的:行為反覆無常並不是一個好選擇。我們有充分的證據表明,監管的可預測性對創新至關重要。

在最近的一次演講中,澳大利亞科學、技術與數字經濟助理部長安德魯·查爾頓(Andrew Charlton)承認了這一點:

那麼,政府的計劃是什麼?

官方的保護澳大利亞人的計劃是國家AI計劃中的一個部分(行動7)。它認為,現有的澳大利亞框架“可以適用於AI和其他新興技術”。

換句話說,AI系統和工具可以由我們已經擁有的規則涵蓋,例如針對所有誤導和欺騙行為的消費者保護。政府在2024年曾提出這一選項。(我們之前也曾認為,生產力委員會支持的這一觀點缺乏充分支持,並非我們的首選。)

計劃的問題

然而,幾年前政府已經指出的,應用現有法律的挑戰仍然存在。

正如我們在2023年所指出的,現有的監管框架在AI方面存在局限。

AI系統很複雜,它們可以半自主運作,並且很難理解它們為何會做出某些行為。這使得用現有法律和流程有效追究AI風險或損害的責任變得非常困難。

遺憾的是,這些限制尚未得到系統性解決——如果有的話。

規則碎片化與資源有限

目前,監管格局高度碎片化且不確定。

例如,至少有21個州和聯邦層面的強制性(或準強制性)政策涉及政府使用AI。法院迄今幾乎沒有機會澄清這些規則,幾乎沒有在現有法律的關鍵領域(如疏忽、行政法、歧視法和消費者法)進行測試的案例。

新計劃伴隨著明確承諾,將監控AI的發展和部署“並在出現挑戰時作出回應,隨著我們對AI優缺點的理解不斷深化”。

問題是:這種監控將如何進行?政府真的會“授權每個現有機構負責AI”嗎?

處理隱私、消費者保護、反歧視等問題,將需要資金、承諾以及各機構之間的協調,而我們迄今尚未見到這樣的合作。

未來的不確定性

對於可預測性,信號非常重要。

如果2028年美國政權更替,這會改變澳大利亞對AI的監管方式嗎?——就像特朗普總統上台初期,澳大利亞的強制性AI監管措施被放棄一樣?

在我們擁有如此多停滯和部分完成的監管流程的情況下,放任自流的監管方式是否能帶來預測性?

政府似乎期望法院、政府機構、企業和個人自行摸索如何將舊法律和制度適應新的技術環境。

對於公共部門自動決策的監管(在“Robodebt”皇家委員會後承諾的),仍有一些希望。至於其他方面,則是“觀望”AI監管的策略。我們只能拭目以待,看它是否奏效。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言