ChainCatcher のメッセージ、マサチューセッツ工科大学、ウェルズリー大学、マサチューセッツ美術大学の研究チームが最新の発見を報告しました。長期的に ChatGPT などの大規模言語モデル (LLM) に依存することが、認知能力を損なう可能性があることが示されています。研究によると、AI による執筆を行った参加者の脳内のアルファ波接続数は、独立して考える人の半分(42 対 79)に過ぎず、83.3% が自分の文章内容を正確に引用できませんでした。研究者はこの現象を「認知負債」と呼び、短期的には思考の負担を軽減しますが、長期的には批判的思考や創造性の低下を引き起こすとしています。
研究:ChatGPTなどの大規模言語モデルに長期間依存することは認知能力を損なう可能性がある
ChainCatcher のメッセージ、マサチューセッツ工科大学、ウェルズリー大学、マサチューセッツ美術大学の研究チームが最新の発見を報告しました。長期的に ChatGPT などの大規模言語モデル (LLM) に依存することが、認知能力を損なう可能性があることが示されています。研究によると、AI による執筆を行った参加者の脳内のアルファ波接続数は、独立して考える人の半分(42 対 79)に過ぎず、83.3% が自分の文章内容を正確に引用できませんでした。研究者はこの現象を「認知負債」と呼び、短期的には思考の負担を軽減しますが、長期的には批判的思考や創造性の低下を引き起こすとしています。