研究:ChatGPTなどの大規模言語モデルに長期間依存することは認知能力を損なう可能性がある
ChainCatcher のメッセージ、マサチューセッツ工科大学、ウェルズリー大学、マサチューセッツ美術大学の研究チームが最新の発見をしました。長期的に ChatGPT のような大規模言語モデル(LLM)に依存することは、認知能力を損なう可能性があるということです。研究によると、AIによる執筆を行った参加者の脳内のアルファ波の接続数は、独立して考える人の半分(42 対 79)であり、83.3%が自分の文章内容を正確に引用できませんでした。研究者はこの現象を「認知負債」と呼び、短期的には思考の負担を軽減するものの、長期的には批判的思考や創造性の低下をもたらすと述べています。