研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
2025-06-20 10:03:23
分享至

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。
研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。

最新快讯
数据:过去24小时全网爆仓4.00 亿美元,多单爆仓3.55 亿,空单爆仓4519.85 万
ChainCatcher
2025-06-22 00:00:15
数据:某 TRUMP 团队关联地址将 352.7 万枚 TRUMP 存入 CEX,约合 3280 万美元
ChainCatcher
2025-06-21 23:41:01
分析:稳定币或将成为美国财长贝森特弥补赤字的新工具
ChainCatcher
2025-06-21 23:14:35
Binance Alpha 将上线 Sahara AI (SAHARA)
ChainCatcher
2025-06-21 22:41:24
数据:某鲸鱼于过去 24 小时内以 0.93 美元均价买入 723 万枚 Fartcoin
ChainCatcher
2025-06-21 22:23:35