我剛剛得知一件聽起來像出自1984的事情,但卻是真實發生在英國一所學校的事情。字面上,一個人工智慧審查了奧威爾。



在曼徹斯特,一所中學決定使用人工智慧來審查其圖書館。AI 提供了一份193本書的清單,列出要移除的原因。你猜猜其中哪一本在名單上:喬治·奧威爾的《1984》,因為它包含「折磨、暴力和性 coerciòn 的主題」。諷刺的是,《1984》正是描述一個控制一切、篡改歷史、決定公民能讀什麼的政府。而這裡,卻是一個AI在做同樣的事。

學校的圖書館員認為這很荒謬,拒絕執行建議。但管理層不同意。他們被指控引入不適當的書籍,並被報告給地方當局。壓力大到他請病假,最終辭職。更糟的是:當局認定他確實違反了兒童安全程序。抗拒AI的人失去了工作;接受AI而不質疑的,卻沒有後果。

事後揭露,學校完全知道這一切來自AI。在內部文件中,他們寫道:雖然分類由AI產生,但「我們認為這個分類大致是準確的」。大致是什麼?一個機構將一個關鍵決策委託給自己都不理解的算法,然後一個管理者在未審查的情況下批准了。

同一週,維基百科發生了完全不同的事情。當一所學校讓AI決定學生能讀什麼時,全球最大的線上百科全書卻做出了相反的決定:禁止AI撰寫或重寫內容。投票結果是44票贊成,2票反對。一個名為TomWikiAssist的AI帳號一直在自動創建文章。

問題在數學上:AI可以在幾秒內寫出一篇文章,但志願者人類需要數小時來核實事實、來源和撰寫。維基百科沒有足夠的編輯來審查AI可能產出的所有內容。但更深層的問題是:維基百科是訓練AI模型的主要資料來源之一。AI從維基百科學習,然後為維基百科撰寫新文章,這些文章又用來訓練下一代AI。如果AI污染了這些資料,就會形成一個循環:污染擴大。資料毒害AI,AI又毒害資料。

同一週,OpenAI也做出了反應。無限期取消了ChatGPT的「成人模式」,這是Sam Altman幾個月前親自宣布的功能。內部健康委員會一致投票反對。他們的擔憂很明確:用戶會與AI產生不健康的情感依賴,未成年人會找到規避年齡驗證的方法。有更直白的說法:如果不改善,這可能變成一個「性感自殺教練」。年齡驗證系統的錯誤率超過10%。以每週8億活躍用戶計算,這意味著數千萬用戶被錯誤分類。

不僅如此,他們還撤下了帶有AI的視頻工具Sora,以及ChatGPT的即時支付功能。Altman表示,他們專注於核心業務,並刪除「次要任務」。但OpenAI正準備上市。一家努力上市、並大量刪除有爭議功能的公司,可能並不完全誠實。

你看,五個月前,Altman還說要把用戶當作成人對待。五個月後,他卻發現連自己公司都不知道AI能做什麼、不能做什麼。甚至連創造AI的人都沒有這個答案。

綜合這三個事件,問題變得顯而易見:AI產生內容的速度已經遠遠超過人類審查的速度。那位曼徹斯特的主管不信任AI;他只是不想花時間讓圖書館員讀完193本書。這是一個經濟問題。生成成本幾乎為零,所有審查成本都由人類承擔。

因此,每個機構都採取了最激烈的反應:維基百科直接禁止,OpenAI則刪除部分產品線。這些都不是經過深思熟慮的解決方案,而是緊急措施來填補漏洞。而這種情況正在變得常態化。

AI每幾個月就會更新一次。沒有一個國際框架能明確規定可以觸及的範圍。每個機構都制定自己的內部界線,彼此矛盾,缺乏協調。與此同時,差距只會越來越大。AI持續加速。審查人員沒有增加。某天,這將爆發成比審查奧威爾更嚴重的事情。而當那一天來臨時,可能已經太遲,無法再劃出界線。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言