91成人精品视频,激情黄色一级片,国产精品久久久久久久久久久久午,欧美一级黄色片网站,久视频在线,国产一区二区在线91,精品国产1区2区

當(dāng)前位置: 當(dāng)前位置:首頁 >焦點 >警惕“AI依賴” 人機(jī)共生時代如何保持獨立思考 正文

警惕“AI依賴” 人機(jī)共生時代如何保持獨立思考

2025-12-01 04:21:43 來源:素昧平生網(wǎng)作者:探索 點擊:862次

●彭茜

近日,AI依賴美國斯坦福大學(xué)研究人員策劃了全球首個以人工智能(AI)為核心作者與論文評審的警惕線上開放會議。主辦方稱,人機(jī)此次會議旨在創(chuàng)建一個“相對安全的共生試驗場”,探索AI是時代否及如何能獨立產(chǎn)生新穎的科學(xué)見解、假設(shè)與方法論等。何保

如今,持獨AI已成為人們工作生活的立思好幫手,但它同時也在提供一種“認(rèn)知捷徑”,AI依賴讓人們不用費力思考便能得到想要的警惕答案。一開始只是人機(jī)查詢信息、翻譯文字,共生慢慢開始利用AI輔助寫郵件、時代工作總結(jié)、何保研究論文,持獨甚至進(jìn)行重要決策……過度依賴AI,利用其進(jìn)行“思維外包”,有可能讓人們?nèi)諠u喪失思維的主導(dǎo)權(quán)。

人機(jī)共生時代,人類如何保持獨立思考呢?

AI“思維外包”藏隱憂

正如上述會議所探討的,大模型、智能體等AI應(yīng)用已在包括科研在內(nèi)的多領(lǐng)域廣泛賦能人類生產(chǎn)生活,促進(jìn)學(xué)術(shù)研究和生產(chǎn)生活提質(zhì)增效,但其帶來的技術(shù)紅利之下也暗藏隱憂。一些新研究顯示,過度依賴AI模型或可引發(fā)“AI腦霧”,削弱工作動力。

美國麻省理工學(xué)院研究顯示,長期使用AI會導(dǎo)致認(rèn)知能力下降。研究人員對受試者展開腦電圖掃描后發(fā)現(xiàn),與沒有使用AI工具的人相比,長期使用AI大語言模型的人大腦神經(jīng)連接數(shù)降低,影響語言和行為等層面。微軟和卡內(nèi)基—梅隆大學(xué)的研究也有類似發(fā)現(xiàn),生成式AI會削弱批判性思維能力,導(dǎo)致過度依賴,可能削弱人們獨立解決問題的能力。

研究人員認(rèn)為,開發(fā)者在設(shè)計生成式AI工具時,應(yīng)有支持用戶增強批判性思維的意識,如提示需驗證的場景。特別是在設(shè)計法律文書、醫(yī)療建議等高風(fēng)險任務(wù)時,應(yīng)強制彈出驗證提醒(如“請核對AI引用的法規(guī)條款”)等,標(biāo)注潛在風(fēng)險,打破用戶對AI“全知全能”的認(rèn)知偏差。

浙江大學(xué)管理學(xué)院吳蘇青團(tuán)隊今年在英國《科學(xué)報告》雜志發(fā)表的研究還顯示,AI的應(yīng)用帶來認(rèn)知需求的“空心化”。當(dāng)AI完成工作的“燒腦”部分,人類僅剩機(jī)械性執(zhí)行,工作淪為“被動填空”,就可能會導(dǎo)致心理疏離,喪失工作動力。這就要求企業(yè)、政府部門等部署AI時要“慢下腳步”,可先小范圍試點、可控推進(jìn),邊用邊觀察對員工積極性和創(chuàng)造力的影響。

人們?yōu)楹巍拜p信”AI

人們之所以愈加依賴AI,源于近年來AI專業(yè)化能力和交互便捷性的飛躍:其生成內(nèi)容的專業(yè)化程度,讓不少人把它奉為專家,而對話式的交互方式讓它好似一位學(xué)識淵博又無話不談的“好友”,更易讓人形成心理依賴和信任。

如今,AI大模型“開箱即用”的便捷性,進(jìn)一步降低了使用門檻。由于缺乏基本的AI素養(yǎng)教育,使用者對AI本身的技術(shù)缺陷認(rèn)知不足,更容易“輕信”。英國高等法院今年6月就要求律師采取緊急行動,防止AI被濫用,原因是數(shù)份可能由AI生成的虛假案例引用被提交至法庭。而今年由美國衛(wèi)生與公眾服務(wù)部牽頭,“讓美國再次健康”委員會發(fā)布的兒童慢性病報告也因使用了生成式AI內(nèi)容而出現(xiàn)重大引用錯誤。

荷蘭阿姆斯特丹大學(xué)研究人員詹姆斯·皮爾遜說,AI顯著推動了科研進(jìn)程,如可用于繪制蛋白質(zhì)結(jié)構(gòu)、研發(fā)新型抗生素,還能加快文獻(xiàn)綜述等環(huán)節(jié)的進(jìn)度等。但當(dāng)AI產(chǎn)生的“幻覺”出現(xiàn)在論文評審或研究中時十分令人擔(dān)憂,AI還可能帶有其訓(xùn)練數(shù)據(jù)中蘊含的偏見,進(jìn)而加劇種族、性別等不平等問題。

“我們在使用AI的同時,把判斷力也一起外包了,不再去驗證AI給出的答案,不再去反思使用AI的過程。無條件接受AI給的任何信息,就會導(dǎo)致人的主觀能動性下降,深度的閱讀思考和表達(dá)能力也會隨之退化?!笨苹米骷摇⒅袊鲄f(xié)科幻文學(xué)委員會副主任陳楸帆接受新華社記者采訪時說。

建立思維的“AI緩沖帶”

未來,AI一定會更加深度嵌入人們的工作生活。在這個人機(jī)共生的新時代,與AI共處需要更智慧。美國AI教育公司Section 4首席執(zhí)行官格雷格·肖夫預(yù)測,未來10年,使用AI的知識型勞動者將分化為兩類群體:“AI乘客”與“AI駕馭者”。

“AI乘客”欣然將自身認(rèn)知工作全權(quán)交由AI打理,短期內(nèi)或因工作效率提升而獲得認(rèn)可。但隨著AI能力的迭代,這些人終將被AI取代。而“AI駕馭者”則堅持主導(dǎo)AI的運作,把AI生成的內(nèi)容當(dāng)作初稿,對結(jié)果嚴(yán)格核查,有時還會關(guān)閉AI獨立思考。

“我們需要在不同的學(xué)習(xí)和工作場景里,學(xué)會分辨哪些場景適合用AI,哪些場景需要人來進(jìn)行有利輔助,判斷和辨別AI給出的結(jié)果。”陳楸帆持同樣觀點。在他看來,人們應(yīng)對自己的心智、認(rèn)知掌握主動權(quán),有意識地建立一個“AI緩沖帶”,即面對新問題,先從自己的角度給出答案,再尋求AI的深化和擴(kuò)充。

“我們甚至還可進(jìn)行‘對抗性生成’,即當(dāng)AI給出跟自己觀點十分契合的答案時,應(yīng)有批判性思維去質(zhì)疑,到底是我被AI所影響,還是AI在我的不斷訓(xùn)練下,變得越來越趨同?我們是否能跳出思維慣性做出不一樣的選擇,給出AI沒想到的答案。”他說。

據(jù)新華社

作者:焦點
------分隔線----------------------------
頭條新聞
圖片新聞
新聞排行榜