《Disney +》 迪士尼、Marvel、彼思、星球大戰…  「Indie World 2021.12.16」 發表內容總結!   11月14日起 怪物彈珠與「SHAMAN KING」第一次合作活動開始!   訂閱數突破100萬!彩虹社旗下VTuber「葛葉」將舉辦首次個人活動!   能量飲料界的帝王Monster Energy發表了許久不見的新商品「超級可樂」!   《Demon’s Souls》教會特技表演者的肢體動作二三事   《BanG Dream! 少女樂團派對 for Nintendo Switch》真人電視廣告公開!   公開發表實況轉播及遠端會議最適合的1080p / 30fps高畫質網路攝影機「ASUS Webcam C3」   《KartRider: Drift》2022年飆速登陸PS4 

研究顯示:AI工具影響人類認知能力,「認知殘疾」或成未來?

商業

麻省理工學院媒體實驗室研究團隊透過腦電圖(EEG)監測和自然語言處理分析,發現使用大型語言模型如ChatGPT協助寫作時,會產生「認知負債」(Cognitive Debt)現象。這項為期四個月的研究追蹤54名參與者的大腦活動,揭示了AI工具對人類認知能力的深層影響。

研究設計揭示AI對大腦的真實衝擊

三組實驗對照明顯差異

研究團隊將參與者分為三組進行論文寫作任務:LLM組僅能使用ChatGPT、搜尋引擎組可使用Google等網路工具、純腦力組完全不使用任何外部輔助。每位參與者需在20分鐘內完成SAT標準化測驗的論文題目。

實驗最關鍵的第四階段,研究者讓原本使用AI的參與者改為純腦力寫作,而純腦力組則首次接觸ChatGPT。這種「工具轉換」設計,讓研究團隊能夠觀察AI依賴對大腦功能的長期影響。

腦電圖監測揭露神經連結變化

透過32個電極的腦電圖監測,研究團隊發現不同組別的大腦神經連結模式存在顯著差異。純腦力組展現最強的神經網絡連結,搜尋引擎組居中,而LLM組的大腦活動最為薄弱。

特別在Alpha波段(8-12赫茲),純腦力組的神經連結強度達0.053,而LLM組僅有0.009,差距超過五倍。這個波段與內在注意力和語義處理密切相關,顯示AI輔助寫作大幅降低了大腦的自主思考活動。

記憶能力嚴重受損

引述能力幾乎完全喪失

實驗結果最令人震驚的是,LLM組參與者在寫作完成後,幾乎無法正確引述自己剛寫的文章內容。第一次實驗中,83.3%的LLM組參與者無法提供正確引述,而搜尋引擎組和純腦力組僅有11.1%遇到同樣困難。這種記憶編碼缺陷持續存在。即使在第三次實驗中,仍有33%的LLM組參與者無法正確引述自己的文章,相較於其他兩組的11%,差距依然明顯。

文章歸屬感分裂

在文章所有權認知方面,LLM組參與者呈現嚴重分裂。半數參與者聲稱完全擁有文章所有權,但也有參與者完全否認,許多人只認為自己擁有50%-90%的所有權。

相對地,純腦力組有89%的參與者認為完全擁有文章所有權,搜尋引擎組也有78%表達完全擁有權。這種認知分裂反映了AI工具如何削弱使用者對創作成果的心理連結。

語言表達趨於同質化

專有名詞使用模式差異巨大

自然語言處理分析顯示,LLM組在文章中使用最多的專有名詞,包括人名、地名、年份等具體訊息,使用頻率是純腦力組的2.5倍。這反映了AI生成內容的特徵:依賴訓練資料中的具體事實。搜尋引擎組的專有名詞使用頻率居中,約為LLM組的一半,但仍明顯高於純腦力組。這顯示外部資訊來源都會影響寫作者的表達方式,但AI的影響最為顯著。

主題處理呈現模式化

在特定主題的處理上,不同組別展現截然不同的approach。以「幸福」主題為例,LLM組頻繁使用「選擇職業」和「個人成功」等詞組,反映出AI傾向於個人主義和成就導向的論述框架。

搜尋引擎組則常使用「給予我們」等外向型措辭,可能反映從網路資源中引用的集體價值觀。純腦力組使用「真正快樂」和「利益他人」等詞組,展現更多內省和利他思考。

工具轉換後的認知衝擊

從AI轉向純腦力寫作的困境

第四階段實驗中,原本使用AI的參與者改為純腦力寫作時,表現顯著下降。78%的參與者無法引述任何內容,只有11%能提供正確引述,遠低於一直使用純腦力組別的表現。

腦電圖數據顯示,這些參與者缺乏強健的額頂葉同步化活動,這種神經活動對深度語義編碼和記憶提取至關重要。雖然他們保持了基本的打字動作相關神經活動,但無法補償語義回憶能力的不足。

純腦力組使用AI後的適應

相反地,原本純腦力組的參與者首次使用AI時,展現出所有腦電波頻段的顯著增強。這顯示將AI引入既有認知工作流程需要大量神經整合努力,大腦必須協調內在計畫與外部建議。

有趣的是,這些參與者使用AI後展現更精細的提示策略,類似搜尋引擎組的查詢方式,表明他們能更策略性地運用AI工具。

專業評審的AI辨識能力

人類教師的敏銳觀察

兩位英語教師在不知情研究分組的情況下評分所有文章,展現出驚人的AI辨識能力。他們描述LLM生成的文章「在語言和結構上接近完美,但缺乏個人洞察或清晰立場」,認為這些文章「在內容上是空洞的,缺乏個人色彩」。

人類教師特別注重獨創性和創意,而非客觀的「完美性」。即使AI輔助的文章在結構和語言準確性上得分較高,但在內容獨特性方面分數偏低。

AI評審的系統性偏差

研究團隊開發的AI評審系統在評分上展現系統性偏差,傾向於給出4分左右的評分。與人類教師相比,AI評審在獨特性評估上分歧最大,經常高估AI生成內容的原創性。

這種評分差異反映了一個重要問題:當AI系統評估AI生成內容時,可能無法準確識別創作的真正價值。

TechApple 觀點:認知負債的隱憂與AI工具的雙面刃

這項研究揭示了一個令人深思的現象:便利的AI工具可能正在悄悄削弱人類最珍貴的認知能力。當我們將思考外包給機器時,大腦似乎會「偷懶」,減少神經網絡的活躍度。值得警惕的是,這種認知負債並非暫時性的。實驗顯示,即使停止使用AI工具,參與者的大腦活動和記憶能力也無法立即恢復到原有水準。這意味著過度依賴AI可能造成不可逆的認知衰退。然而,這並不意味著我們應該完全拒絕AI工具。關鍵在於如何平衡使用。研究發現,先進行純腦力訓練,再引入AI輔助的參與者,展現出更強的適應性和策略性思考。

或許最具爭議的觀點是:我們是否正在培養一代「認知殘疾」的學習者?當學生習慣於AI提供現成答案時,他們還能發展出獨立思考和創新能力嗎?這個問題不僅關乎教育政策,更關乎人類文明的未來走向。

參考來源:https://arxiv.org/abs/2506.08872

TechApple

隨機商業新聞

Disney Plus