研究:长期依赖 ChatGPT 等大型语言模型或将损害认知能力

ChainCatcher 消息,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖 ChatGPT 等大型语言模型(LLM)可能损害认知能力。研究显示,使用 AI 写作的参与者大脑中 Alpha 波连接数量仅为独立思考者的一半(42 比 79),且 83.3%无法准确引用自己的文章内容。研究者称这种现象为认知负债——短期内减轻思维负担但长期导致批判性思维和创造力下降。

本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)