德國AI幻覺第一案 AI需要為“說”出的每句話負責(zé)嗎?

(21世紀經(jīng)濟報道記者嘗試向grok詢問資金來源)(21世紀經(jīng)濟報道記者嘗試向grok詢問資金來源)

這在國內(nèi)的說合規(guī)圈也蕩起了漣漪。有聲音指出:漢堡法院的德國第案本次禁令動作之所以在行業(yè)內(nèi)引發(fā)關(guān)注,是幻覺話負因為它直接繞過了復(fù)雜的算法歸因,將X.AI認定為虛假信息的每句發(fā)布者,并課以直接責(zé)任,說AI需要為自己“說”的德國第案話負責(zé)。

Campact eV的幻覺話負經(jīng)理Astrid Deilmann認為,像 Grok 這樣的每句AI聊天機器人也有義務(wù)提供真相。 背后的說X.AI 公司不能對虛假信息置之不理,必須確保謊言不被傳播。德國第案

這無疑是幻覺話負一個很嚴格的要求。Campact e.V.此前一直有資金來源爭議,每句也持續(xù)在為此進行訴訟,說不過,德國第案這次的幻覺話負訴訟對象變成了AI。

“失實信息的出現(xiàn),通常是已有失實信息廣泛傳播、AI算法運行原理的天然成果,又或是AI服務(wù)提供者部分識別攔截機制的不健全?!币晃淮髲S負責(zé)內(nèi)容生態(tài)的法務(wù)告訴記者。

他認為,Grok總結(jié)的內(nèi)容標注了數(shù)據(jù)來源、是針對用戶詢問解答,沿用傳統(tǒng)信息檢索平臺或新聞媒體報道的責(zé)任認定思路看,如無其他事實補充,Grok并沒有生產(chǎn)虛假信息的主觀意圖、也不具有謠言的“傳播擴散”事實。因此,AI生成虛假內(nèi)容與AI造謠、AI誹謗并不能劃等號。

天元律師事務(wù)所李昀鍇指出,需要判斷涉案言論內(nèi)容是否有明顯的侮辱、誹謗,是否存在明顯失實。如果AI歸納生成的信息來源于不具有足夠依據(jù)(比如采納的是X上的某一個人賬號的不具有可信度的發(fā)言),可能會存在未盡到核實責(zé)任的問題。

平臺免責(zé)聲明還能作數(shù)嗎??

由于當前該案的裁決或詳細論證尚未公布,禁令為法院的“臨時命令”,因此諸多討論尚無基石,但有一點共識:AI平臺的免責(zé)聲明可能不再是免死金牌。

這與此前的AI誹謗案件認定標準大不相同。2023年,美國的一名電臺主持人馬克·沃爾特斯 (Mark Walters) 指控OpenAI旗下的 ChatGPT 通過捏造指控和虛構(gòu)訴訟誹謗自己。

相較于德國協(xié)會資金來源存在爭議,馬克·沃爾特斯的誹謗純屬ChatGPT瞎編。ChatGPT生成的內(nèi)容顯示:馬克·沃爾特斯在一個案件中,涉嫌以SAF財務(wù)長的職權(quán)非法挪用基金會的資金坐上被告席。而事實是,馬克·沃爾特斯亦從未任職于第二修正案基金會,也沒有牽涉進入這一糾紛案件。

不過,美國佐治亞州法院最終駁回了馬克·沃爾特斯的訴求,認可了OpenAI關(guān)于AI幻覺的免責(zé)聲明,讓其免除了誹謗責(zé)任。

法院指出:任何理性的人都不會將涉案AI生成的內(nèi)容解讀為真實的事實斷言,尤其是考慮OpenAI 采取了廣泛的措施來警告用戶:ChatGPT 有時可能會生成不準確的輸出。

美國對AI誹謗的認定標準,在歐洲大陸并不適用。盡管德國漢堡地區(qū)法院最終會發(fā)出什么樣的審判決定還未可知,但是禁言Grok的動作一定程度上意味著對AI緊箍咒的態(tài)度。

“無論你的免責(zé)聲明寫得多么詳實完整,AI的輸出構(gòu)成了法律所禁止的侵權(quán)行為(如誹謗、造謠),服務(wù)商可能就得為此買單?!崩铌厘|提到。

“人工智能也不能凌駕于法律之上?!盋ampact e.V.的經(jīng)理Deilmann如此說道。?

AI公司扮演何種角色?

與2023年生成式AI剛剛起步不同的是,當前的AI已經(jīng)“飛入尋常百姓家”,其生成內(nèi)容的影響力如同水波一樣一層層蕩開。

但與此相對應(yīng)的,卻是普遍用戶AI素養(yǎng)斷檔。上海交通大學(xué)主導(dǎo)的“科技謠言背后的非理性群體心理與輿論生成”研究結(jié)果顯示,AI早已進入了人們生活,有近半數(shù)的接受調(diào)查者經(jīng)常使用大模型,但對于AI幻覺以及AI的“價值觀”,大部分受調(diào)查者卻沒有足夠的認知。?

調(diào)研對象覆蓋了全國31個省份的不同性別、不同年齡、不同收入層次的居民,數(shù)據(jù)顯示,約七成受訪者對大模型生成虛假或錯誤信息的風(fēng)險缺乏清晰認知,高感知比例者不足一成。

在各種社交平臺上,以AI生成內(nèi)容作為權(quán)威的用戶比比皆是,他們拿著這份未經(jīng)核實的答案作為金科玉律。也正是這種篤定,衍生出了不少糾紛案件。

21世紀經(jīng)濟報道記者了解到,AI生成內(nèi)容、AI幻覺導(dǎo)致的侵權(quán)、糾紛案件已經(jīng)涌入國內(nèi)司法領(lǐng)域,有的案件最快將于年底宣判。

這些案子讓頭部AI公司的法務(wù)頭疼不已,其背后牽涉到AI公司到底應(yīng)該承擔(dān)何種責(zé)任,是內(nèi)容生成者還是傳播者?AI和傳統(tǒng)的互聯(lián)網(wǎng)平臺有何區(qū)分?

李昀鍇認為,如果相關(guān)內(nèi)容是AI平臺整合多個來源經(jīng)過判斷后歸納總結(jié)出來的內(nèi)容,那這種情況下其更有可能是內(nèi)容生成者,平臺提供者應(yīng)該有更嚴格的審核義務(wù),承擔(dān)的是直接侵權(quán)責(zé)任。

但上述大廠法務(wù)則指出,以Grok案件為例,不能簡單將用戶的詢問到Grok解答的過程,理解為“平臺主動發(fā)布內(nèi)容”。AI服務(wù)提供者并不能完全控制內(nèi)容生成邏輯,內(nèi)容的生成過程中,AI解答用戶問題、滿足其訴求是服務(wù)的基本要求;此外,AI生成的內(nèi)容,如無其他事實補充,通常不能代表AI服務(wù)提供者本身的觀點與立場。

一名研究學(xué)者則認為,從該案判斷,大模型肯定是內(nèi)容生成者,但是否是內(nèi)容傳播者存疑。

他指出,盡管大模型傳播了訓(xùn)練數(shù)據(jù)中的內(nèi)容,但需要考慮非常多技術(shù)細節(jié),特別是用戶提示在生成中的貢獻。此外,大模型生成內(nèi)容在用戶之間的傳播結(jié)果不盡相同,大模型對A生成和大模型對B生成,首先AB看到內(nèi)容不一定一樣,其次即使一樣或者相似,能不能直接推出是大模型在傳播。

“AI平臺的法律角色,決定其可能承擔(dān)的責(zé)任義務(wù)的大小?!崩铌厘|指出,Grok案件或許會終結(jié)業(yè)內(nèi)“模型犯錯,用戶負責(zé)”的商業(yè)模式。目前漢堡法院只是做出了臨時禁令(僅需申請人證明侵權(quán)的初步蓋然性),不是最終判決。不過,這次禁令留下一道長期的思考題:如果AI幻覺在技術(shù)上無法避免,如何設(shè)計產(chǎn)品的合規(guī)模型使其能最大限度上降低或免除因此產(chǎn)生的侵權(quán)責(zé)任?

時尚
上一篇:圍甲逆襲之路寫就黑馬傳奇 山東平原桃花開隊圓滿收官
下一篇:日本民眾在首相官邸前集會 要求高市撤回錯誤言論