AnthropicがAI安全へのコミットメントを緩和し、OpenAIとの競争に新たな局面をもたらす
2月25日の報道によると、Anthropicは最近、その人工知能安全ポリシーを調整し、安全対策が完全に整う前に高度な人工知能システムを訓練することを禁止するという以前の約束を削除しました。この変更により、AnthropicはOpenAI、Google、xAIとの競争においてより柔軟な対応が可能となり、同時に人工知能の急速な発展と安全保障のバランスについて業界内で議論が巻き起こっています。
Anthropicのチーフサイエンティスト Jared Kaplanは、「訓練を停止するだけでは安全性の問題を本質的に解決できない」と述べ、競合他社が迅速に推進している状況下で、一方的に開発を中止することは賢明ではないと指摘しています。同社は、最先端の安全性ロードマップや定期的なリスク報告を公開することで透明性を高め、重大な災害リスクが判明した場合には開発を遅らせる方針を強調しています。