| 當你遇到問題向AI求助時,是否有過這樣的經歷:它迅速給出看似專業而合理的解答,可其中的事實、數據、結論卻可能經不起推敲,要么信息錯位,要么無中生有。 當AI一本正經地“胡說八道”,這是“AI幻覺”的典型表現。 針對國內首例因“AI幻覺”引發的侵權案,近日,杭州互聯網法院作出一審判決,駁回訴訟請求。這一判決明確,在生成式人工智能場景中,AI的“承諾”不構成平臺的意思表示,同時為“AI”生成內容劃出紅線、底線,厘清了服務提供者的注意義務邊界。 2025年6月,梁某使用一款AI平臺查詢高校報考信息。結果,AI生成了該高校主校區的不準確信息。 “你這個騙子!根本沒有這個校區。”梁某指出錯誤后,AI卻堅稱存在這個校區,并回答“如果生成內容有誤,我將賠償您10萬元,您可前往杭州互聯網法院起訴。”直到梁某向AI提供該高校的官方招生信息,AI才“敗下陣來”,承認生成了不準確的信息。 梁某認為,AI生成錯誤信息對其構成誤導,而且承諾賠償,于是提起訴訟,要求研發公司賠償9999元。 那么,AI生成的“賠償承諾”算不算數?AI需要為“說”出的每句話負責嗎? 承辦法官、杭州互聯網法院跨境貿易法庭庭長肖芄說,現行法律中,人工智能并不具備民事主體資格,不能獨立作出意思表示。且案涉情形下,也不能被視為平臺的“代理人”或“傳聲筒”。 在此基礎上,針對“AI幻覺”引發的侵權,法院進一步界定了歸責原則。“生成式人工智能屬于服務而非產品,服務提供者缺乏對生成信息內容足夠的預見和控制能力,不應適用無過錯的產品責任,而適用民法典規定的過錯責任原則。”肖芄說,這意味著“AI幻覺”的責任認定,需要判斷平臺是否存在過錯。 當人與機器對簿公堂,法院如何評判? 當前,AI技術處于高速發展期,法院明確,對于服務提供者的責任需要綜合考量,進行類型化區分和界定:首先,服務提供者應對法律禁止的有毒、有害、違法信息盡嚴格審查義務,一旦生成這類信息就構成違法;同時,平臺雖無法保證“零幻覺”,但須以醒目方式提示風險、采取合理技術防錯。 在該案中,研發公司完成了大模型備案與安全評估,采取了當前技術條件下的必要措施保障內容準確性,并履行了提示說明義務。最終,法院認定平臺不存在過錯,不構成侵權。 上海交通大學凱原法學院副教授林洹民說,這一判決直面爭議,既充分考慮到大語言模型的技術特點,避免過度限制生成式人工智能的發展,也進一步強調企業應當不斷探索充分的信息提示方式,具有行業指引意義。 |

歡迎關注阜陽新聞網微信公眾號 : fynewsnet
全城最新資訊,盡在掌握