研究:ChatGPTなどの大規模言語モデルに長期間依存することは認知能力を損なう可能性がある

ChainCatcher
ALPHA-4.14%

ChainCatcher のメッセージ、マサチューセッツ工科大学、ウェルズリー大学、マサチューセッツ美術大学の研究チームが最新の発見を報告しました。長期的に ChatGPT などの大規模言語モデル (LLM) に依存することが、認知能力を損なう可能性があることが示されています。研究によると、AI による執筆を行った参加者の脳内のアルファ波接続数は、独立して考える人の半分(42 対 79)に過ぎず、83.3% が自分の文章内容を正確に引用できませんでした。研究者はこの現象を「認知負債」と呼び、短期的には思考の負担を軽減しますが、長期的には批判的思考や創造性の低下を引き起こすとしています。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)