《法治日报》记者 辛红 《法人》见习记者 姚瑶
许多人在使用AI工具时发现,当自己向人工智能提问时,会得到一个逻辑清晰、细节丰富的答案,然而仔细查询时才发现,它回答的内容全部子虚乌有。
2025年年底,杭州互联网法院一审审结了全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案。该案的审判直面AI技术应用前沿带来的法律挑战,对AI生成内容的性质、服务提供者的责任边界以及侵权构成要件等核心问题进行了深入阐释,为类似纠纷处理提供了重要的裁判指引。
AI生成是服务还是产品
案情显示,梁某使用某生成式人工智能应用程序,询问某高校报考的相关信息时,AI生成了该高校主校区的不准确信息。梁某在对话中进行纠正,但AI仍回复称“该高校确实存在这一校区”,还提出若有误将向用户提供10万元赔偿。直到梁某提供该高校招生信息后,AI才认可其生成了不准确信息。

制图/宋逗
这段看似寻常的对话纠纷,却将一个全新的法律命题推到台前:当AI生成的不准确信息误导他人时,是否构成侵权?法律应当如何划分人与机器的责任边界?
北京市康达律师事务所高级合伙人苟博程对记者表示,在法律定性上,AI“幻觉”是生成式人工智能正常运作的内生现象,属于“技术固有局限”,但它不等同于法律意义上的传统“虚假信息”。
“不要以为AI产生了‘幻觉’是因为它逻辑错误或者故障了。恰恰相反,生成式AI的工作原理是基于海量数据进行概率预测,然后像人类一样组词造句。”苟博程说,“当它遇到知识盲区或数据偏差时,就会‘自信满满’地编造内容。这在技术上被称为‘鲁棒性不足’,是其系统正常运行逻辑的必然副产品。”
原告梁某认为,某生成式人工智能应用生成不准确信息对其构成误导,使其遭受侵害,并承诺对其进行赔偿,遂起诉要求某科技公司赔偿损失9999元。但被告某科技公司辩称:对话内容由人工智能模型生成,已充分履行了注意义务,无过错;原告未产生实际损失,不构成侵权。
法院审理认为,生成式人工智能服务依据《生成式人工智能服务管理暂行办法》属于“服务”范畴,而非产品质量法意义上的“产品”。本案应适用《中华人民共和国民法典》(以下简称“民法典”)第一千一百六十五条第一款的一般过错责任原则,而非产品责任的无过错责任原则。本案主要基于四点考量:第一,从概念与构成要件上,该服务缺乏具体、特定的用途与合理可行的质检标准;第二,其生成的信息内容本身通常不具备民法典侵权责任编所指的高度危险性,通常情况下不宜对信息内容本身采用无过错责任原则;第三,生成式人工智能服务提供者缺乏对生成信息内容足够的预见和控制能力,对生成信息内容不宜适用产品责任;第四,从政策导向看,适用无过错责任原则可能会不当加重服务提供者的责任,限制人工智能产业的发展。
苟博程表示,法律对传统“虚假信息”(如谣言、诽谤)的定义,通常包含行为人主观上的“恶意”或“明知故犯”。而对于AI来说,它没有主观意识,更没有道德感。因此,法院将其界定为“服务范畴”下的技术局限性。“这就意味着,我们不能简单粗暴地把AI的一句胡话直接等同于平台在故意造假。”
杭州互联网法院跨境贸易法庭庭长肖芄认为,在当下的人工智能时代,模型通过在含有数万亿词元(Tokens)的庞大语料库上训练,学习了复杂的语言统计模式和词汇共现规律,但并未真正学习“事实”,因此难免产生“幻觉”。对生成式人工智能服务侵权采取过错责任原则能够全面评价服务提供者的行为,有利于构建兼具弹性、适应性与演化能力的回应型规则治理体系,既设立红线、底线,严格禁止生成各类“有毒”、有害、违法信息,又激励生成式人工智能服务提供者采取合理措施进行技术创新,防止风险发生。
AI“赔偿承诺”不算数
该案中,AI回复的那句“若生成内容有误,赔偿10万元”的承诺,究竟算不算数?杭州互联网法院给出了明确的回答:不算数。
“AI在法律上‘人’都算不上,它只是一行由人编写的代码,连签合同的资格都没有。”苟博程表示,AI不是民事主体,根据我国民法典,能独立作出“意思表示”(也就是能许下承诺、承担责任)的主体,只有自然人、法人和非法人组织。AI既不是生物人,也不是法人,它没有任何民事权利能力和行为能力。“它就像一辆自动驾驶汽车,你不能指望汽车自己下车去跟交警道歉。”
本案中,科技公司并没有把AI设定为自己的“代理人”或“发言人”,反而在用户协议里明明白白地说明:这只是个辅助工具,不代表我的真实意思。“既然平台没有授权AI许诺赔偿,那么AI开出的这张10万元‘支票’,本质上就是一串毫无约束力的乱码。”苟博程说。
法院审理认为,本案原告主张受到的侵害是因信息不准确,致其受误导错失报考机会,额外产生信息核实成本、维权成本等,即纯粹经济利益被侵害,而非人格权、物权等绝对权被侵害。因此,不能仅依据权益本身被侵害而认定行为的非法性或不法性,而须从被告是否违反注意义务进行判定。
中国国际经济贸易仲裁委员会仲裁员王风和向记者表示,本案原告败诉的核心原因在于,由于AI造成侵权的法律责任难以完成举证,证据链上难以满足侵权的构成要件。主要体现在以下两个层面:
第一个层面,是原告主张的损害本身较难证明。所谓“错失报考机会”,本质上属于一种机会性利益损失。这类损害在民事侵权案件中一直属于举证难度较大的类型,因为它往往带有较强的假设性和不确定性。法院通常会追问:即便没有这条错误信息,原告是否一定会作出不同选择?是否一定能够把握住所谓的“机会”?这个“机会”究竟具有多大现实利益?这些问题都很难通过直接证据加以证明。
第二个层面,是侵权责任成立所要求的因果关系和过错要件,在本案中都不容易充分建立。司法实践中,不能因为AI回答错了,就当然推理出“平台一定要承担侵权责任”。原告还需要证明“平台存在可归责的过错,且该过错与自己的实际损害之间具有法律上的相当因果关系”。本案中,原告在这一点的证明力度显然不足。
那么,如果该案原告主张的损害不是“错失报考机会”这类较难证明的损失,而是更直接的经济损失,比如,根据错误信息作出了消费决策,判决结果是否可能不同?
王风和表示,如果原告主张的不是抽象的机会损失,而是更直接、更现实、可量化的经济损失,比如,基于AI给出错误票务信息、商品信息、服务规则,用户作出了消费决策,并因此支付了费用或者遭受了实际财产损失,那么原告的证据链就会更完整。此时,“错误信息——产生信赖——作出决策——遭受损失”这一逻辑链条就显得非常重要,并且更容易被法院认定。“AI侵权的案件走向能否改变,关键不在于损失金额大小,而在于损害是否直接、真实、可量化、可归责。如果这些要素能够被清晰证明,平台承担相应责任的确定性自然会上升。”
平台须尽到“注意义务”
最终,杭州互联网法院作出一审判决,驳回原告梁某的诉讼请求。法院认定被告已尽到合理注意义务,主观上不存在过错。AI的“承诺”不构成平台的意思表达,且开发者已采用可行的技术手段力求降低错误,并提醒告知了风险。对此,苟博程分析,法律对AI平台的要求是“尽职免责”,只要做到了以下三道防线,平台就尽到了义务;反之,就要承担责任:
一是严防死守的“红线义务”:对于黄赌毒、反动、暴力等法律明令禁止的“有毒”、有害、违法信息,平台必须拥有极其严格的过滤机制。一旦这类内容显露出来,平台直接被判定有过错;二是醒目提示的“避坑义务”:平台必须在App欢迎页、用户协议、对话框角落等显眼位置,提示用户“AI信息可能不准确,产生的内容仅供娱乐/参考”;三是技术升级的“及格线义务”:可以犯错,但要努力少犯错。平台需要采取行业内通行的技术手段(比如现在流行的“检索增强生成RAG技术”,即让AI先查资料再说话)来提高准确率。如果平台明明有能减少“幻觉”的技术却不采用,那么平台的不作为就是过错。
目前,很多生成式AI应用都会标注“内容仅供参考,请仔细甄别”之类的免责声明,这类声明在法律上能起到多大程度的免责效果?是否存在不能免责的情形?
王风和表示,这类免责声明在法律上具有一定意义,但也绝非“万能免责条款”。“免责声明”首先是风险提示,其次才是法律责任考量,“免责条款”不是一张当然免责的通行证。因为生成式AI本身就具有概率生成、可能失真的技术属性。平台通过“内容仅供参考”“请注意甄别”等提示语,实际上是在提醒用户:AI输出并不当然等同于客观事实,也不当然构成专业意见。在这个意义上,这类声明是有法律意义的,它有助于降低用户形成过度信赖,也可能在一定程度上减轻平台的责任。但问题在于,免责声明的效力是有限的,也是有边界的。这类声明在法律上的作用,更接近于帮助法院划定用户合理信赖边界,而不是帮助平台彻底摆脱责任。它可以减轻责任,但通常不能取代平台本应承担的注意义务。
“从科技趋势看,AI‘幻觉’问题一定会随着技术迭代不断改善,但要说根本消除,我认为相当长时期内仍将持续存在。”王风和表示,随着大模型能力提升、检索增强技术发展、权威知识库接入、事实核验机制完善,以及垂直领域模型不断成熟,AI输出的准确率和稳定性肯定会比现在更高。“从法律和治理角度看,我们不应该把希望完全寄托在技术自我修复上,而应建立在AI仍可能出错的现实前提之上。通过制度设计把风险控制在合理可接受范围内,用一切皆为合理的眼光看待技术的迭代和发展中的问题。”