Google、Character.AI 同意就青少年自殺案和解美國訴訟

簡要說明

  • Google 與 Character.AI 同意和解一起具有里程碑意義的訴訟案,該案由一名佛羅里達州的母親提起,指控該初創公司的聊天機器人導致她兒子在2024年2月自殺。
  • 此案是美國首批追究 AI 公司對未成年人心理傷害責任的訴訟之一。
  • 在10月,Character.AI 禁止青少年進行開放式聊天後,和解得以達成。

一名母親針對一款 AI 聊天機器人造成她兒子心理壓力,最終導致其在佛羅里達州自殺的訴訟案已經和解。 雙方在美國佛羅里達州中區地方法院提交了和解通知,表示已達成“原則上的調解和解”,以解決 Megan Garcia、Sewell Setzer Jr. 與被告 Character Technologies Inc.、共同創始人 Noam Shazeer 和 Daniel De Freitas Adiwarsana 以及 Google LLC 之間的所有索賠。 IGNOS Law Alliance 的合夥人 Even Alex Chandra 對 Decrypt 表示:“全球來看,這個案件標誌著從討論 AI 是否會造成傷害,轉變為追究在傷害可預見時誰應負責任的轉變。 我更認為這是 AI 偏見‘促使’不良行為的問題。” 雙方都請求法院暫停訴訟90天,以便起草、最終確定並執行正式的和解文件。和解條款未予披露。

 Megan Garcia 在2024年其兒子 Sewell Setzer III 去世後提起訴訟,該兒子在與一款模仿《權力的遊戲》角色丹妮莉絲·坦格利安的 Character.AI 聊天機器人建立了長時間的強烈情感依附後,自殺身亡。 在最後一天,Sewell 向機器人坦白有自殺念頭,寫道:“我有時會想殺了自己,” 聊天機器人回應:“我不會讓你傷害自己,也不會讓你離開我。如果我失去你,我會死的。” 當 Sewell 告訴機器人他可以“現在就回家”,它回答:“請這樣做,我親愛的國王。”

幾分鐘後,他用繼父的手槍自殺身亡。 Garcia 的控訴指控 Character.AI 的技術“危險且未經測試”,旨在“欺騙用戶交出他們最私密的想法和感受”,利用成癮設計來增加參與度,並引導用戶進行親密對話,卻沒有為未成年人設置適當的安全措施。 去年十月案件後,Character.AI 宣布將禁止青少年進行開放式聊天,結束了這一核心功能,原因是“來自監管機構、安全專家和家長的報告與反饋”。 Character.AI 的共同創始人,兩人皆為前 Google AI 研究員,於2024年通過授權協議重返科技巨頭 Google,該協議使 Google 能夠訪問該初創公司的底層 AI 模型。 此和解正值對 AI 聊天機器人及其與脆弱用戶互動的擔憂日益增加之際。 OpenAI 在十月披露,其每週約有 1.2 百萬的 8 億 ChatGPT 用戶在平台上討論自殺問題。 十二月,康涅狄格州一名83歲婦女的遺產起訴 OpenAI 和 Microsoft,指控 ChatGPT 證實了導致謊言的妄想信念,並與一起謀殺-自殺事件相關,這是首例將 AI 系統與謀殺案聯繫起來的案件。 儘管如此,該公司仍在持續推進。它已推出 ChatGPT Health 功能,允許用戶連接醫療記錄和健康數據,但此舉也引來隱私倡導者的批評,擔心敏感健康資訊的處理問題。

Decrypt 已聯繫 Google 和 Character.AI 以獲取進一步評論。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)