極為罕見!頂級(jí)大佬齊呼吁:暫停超級(jí)智能研發(fā)

據(jù)統(tǒng)計(jì)截至23日中午,極為級(jí)智這份聲明的頂級(jí)大佬簽署人數(shù)已經(jīng)超過3000人。在中國學(xué)術(shù)界,齊呼多位知名學(xué)者參與聯(lián)署此次倡議,吁暫包括姚期智、停超清華大學(xué)公共管理學(xué)院院長薛瀾、極為級(jí)智清華大學(xué)智能產(chǎn)業(yè)研究院院長張亞勤以及人工智能倫理與治理專家曾毅。頂級(jí)大佬他們的齊呼參與和主張呼應(yīng)了中國長期倡導(dǎo)的“安全、可靠、吁暫可控”和“以人為本”的停超人工智能發(fā)展理念。
“超級(jí)智能的極為級(jí)智前景已經(jīng)引起了人們的關(guān)注,其影響從人類經(jīng)濟(jì)的頂級(jí)大佬落伍和權(quán)力的剝奪,自由、齊呼公民權(quán)利、吁暫尊嚴(yán)和控制權(quán)的停超喪失,到國家安全風(fēng)險(xiǎn),甚至可能導(dǎo)致人類滅絕?!焙灻邆儑?yán)正警告。倡議明確指向,超級(jí)智能并非傳統(tǒng)意義上的“算法偏見”或“就業(yè)沖擊”問題,而是潛在的系統(tǒng)性風(fēng)險(xiǎn);一旦AI能力全面超越人類,其目標(biāo)函數(shù)若與人類利益錯(cuò)位,可能導(dǎo)致不可逆的社會(huì)后果。
事實(shí)上,早在人工智能爆發(fā)元年的2023年,出于對(duì)AI的擔(dān)憂,包括馬斯克、斯蒂夫·沃茲尼亞克在內(nèi)的1000多名人工智能專家和行業(yè)高管就曾集體簽署過一份公開信,呼吁人類暫停開發(fā)更強(qiáng)大的人工智能至少6個(gè)月。而更早之前,著名物理學(xué)家霍金生前曾與多位科技界名人發(fā)表聯(lián)署公開信,表示人工智能對(duì)人類的威脅更甚于核武器。
“世界尚未準(zhǔn)備好迎接不是可控工具的超級(jí)智能?!眳⑴c本次聯(lián)署的北京前瞻人工智能安全與治理研究院院長,中國科學(xué)院自動(dòng)化研究所研究員曾毅在個(gè)人微信朋友圈直言:“目前我們還沒有堅(jiān)實(shí)的科學(xué)證據(jù)和切實(shí)可行的方法來確保超級(jí)智能的安全,使其不會(huì)給人類帶來災(zāi)難性的風(fēng)險(xiǎn)?!?/p>
所謂“超級(jí)智能”,是指在所有核心認(rèn)知任務(wù)上全面超越人類能力的人工智能形式。
“如果以50年為限,超級(jí)智能一定會(huì)到來”。這是曾毅在2024年底的央視直播中曾下過的斷語。當(dāng)記者拋出“人工智能超過人類智慧,擁有人類情感的這一天是否會(huì)到來?”的問題時(shí),曾毅想提出的卻是另一個(gè)問題:當(dāng)超級(jí)智能到來的時(shí)候,人類是不是能夠做好準(zhǔn)備?
“有一個(gè)觀點(diǎn)說AI是中立的,對(duì)此我極不認(rèn)同。其實(shí)人類的偏見、歧視、仇恨是會(huì)被內(nèi)化到AI中,沒有任何一種構(gòu)造超級(jí)智能的方式是沒有風(fēng)險(xiǎn)的?!痹谠憧磥?,一旦選定了正確的方式去構(gòu)造AI,它的智能水平必然會(huì)超越人類,但與此同時(shí),受益于正確價(jià)值護(hù)欄的超級(jí)智能也可以是超級(jí)利他的,超級(jí)共情的,因此他認(rèn)為反而是“擁有自我的AI才會(huì)令人類社會(huì)更安全?!?/p>
曾毅曾經(jīng)預(yù)測,和現(xiàn)在的智能體大多使用硅基材料不同,未來的類腦智能體有可能會(huì)使用生物材料。以前的智能體是存算分離的,類腦智能的硬件可以存算一體,與擔(dān)心機(jī)器人取代就業(yè)機(jī)會(huì)相比,人們對(duì)超級(jí)智能體的擔(dān)憂則因未知而充滿不確定性。
參與本次聯(lián)署呼吁的圖靈獎(jiǎng)得主、深度學(xué)習(xí)三巨頭之一的約書亞·本吉奧(Yoshua Bengio)也指出,要安全地邁向“超級(jí)智能”,我們必須通過科學(xué)手段設(shè)計(jì)出在根本上無法傷害人類的人工智能系統(tǒng)——無論是由于目標(biāo)偏差,還是被惡意利用。同時(shí)他曾多次在公開場合強(qiáng)調(diào),公眾也應(yīng)在塑造人類共同未來的決策中擁有更強(qiáng)的話語權(quán)。
記者觀察到,發(fā)起本次倡議的未來生命研究所,同期還曾發(fā)布一項(xiàng)美國全國性民意調(diào)查,顯示公眾對(duì)當(dāng)前人工智能的發(fā)展方向普遍不滿。僅有5%的受訪者支持目前“無監(jiān)管的AI開發(fā)現(xiàn)狀”,而高達(dá)73%的受訪者支持建立更為嚴(yán)格的監(jiān)管機(jī)制,另有64%的受訪者認(rèn)為,在科學(xué)界尚未就安全與可控性達(dá)成共識(shí)之前,不應(yīng)開發(fā)“超級(jí)智能”。
從宏觀趨勢(shì)看,AI風(fēng)險(xiǎn)治理的國際分歧正在加劇。美國與歐盟正推動(dòng)不同版本的“AI法案”,其中歐盟強(qiáng)調(diào)透明度與可追溯性,美國則側(cè)重市場自律與行業(yè)標(biāo)準(zhǔn)化。有分析認(rèn)為,此次倡議或可推動(dòng)G20或聯(lián)合國層面的技術(shù)倫理議題重啟,使AI治理從自律階段走向多邊協(xié)商階段。
來源:南方都市報(bào)
編輯:趙野平