我国首例AI“幻觉”侵权案分析
案件背景
2025年6月,梁某使用某AI应用程序查询高校报考信息,AI提供不准确信息。梁某指出错误后,AI称“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉”,直到梁某提供官方招生信息,AI才承认错误。梁某认为AI误导使其遭受侵害,要求运营者赔偿9999元,运营者则辩称对话由模型生成,自己无过错且梁某无实际损失。最终,杭州互联网法院一审驳回梁某诉求,原、被告均未上诉,判决生效。
核心争议点
AI“承诺”能否构成平台意思表示
现行法律下,人工智能不具备民事主体资格,不能独立作出意思表示,也不能被视为平台的“代理人”或“传声筒”。即便AI在对话中作出承诺式回应,也不能理解为平台真实意愿的外化。此判决明确了“人类负责制”原则,即人工智能系统带来的利益和风险,最终都应由人类分配和承担。
侵权责任归责原则
案涉生成式人工智能属于服务而非产品,不应适用无过错的产品责任,而适用民法典规定的过错责任原则。这意味着AI生成不准确信息本身不构成侵权,责任认定需考察平台是否存在过错。
平台注意义务界定
严格结果性审查义务
对于法律明确禁止生成的有毒、有害、违法信息,生成式人工智能服务提供者负严格结果性审查义务,一旦生成此类信息本身即构成违法。
方式性义务
对于一般性不准确信息,现行法律未要求服务提供者确保“零错误”或信息绝对准确,而是强调其应采取合理措施提高生成内容的准确性与可靠性。
服务功能显著提示说明义务
平台须采取必要、合理的醒目措施,让用户认知AI的局限性。具体包括在欢迎页、用户协议及交互界面显著位置提示“AI生成内容存在局限,不能确保准确,仅供参考”;对可能涉及人身、财产安全等的专业问题(如医疗、法律、金融),应以正面警示语在恰当时机进行显著提醒。在“梁某案”中,被告已在多处履行此义务,符合显著性要求。
功能可靠性基本注意义务
平台应采用同行业通行技术措施(如数据安全评估、模型内生安全、外部护栏、检索增强生成RAG等)提升准确性,达到市场平均水平。对于涉及生命安全、心理健康等高风险特定领域,提供者负有更高义务,包括采取特别技术措施与特殊安全保障。
法院判决依据
在“梁某案”中,法院审查认定被告已完成大模型备案与安全评估,并在应用界面、用户协议等多个层面履行了提示说明义务,原告未能证明其遭受了实际损害或存在相当因果关系(AI不准确信息未实质影响其决策)。最终,法院认定平台不存在过错,不构成侵权。
案件启示
对技术创新与法律治理
人工智能时代已到来,对生成式人工智能的治理应坚持发展与安全并重、促进创新与权益保护相结合的原则。一方面,要为技术创新保留必要空间,避免因责任过度前置而抑制新技术的发展;另一方面,要守住法律底线,严格禁止生成各类有毒、有害、违法信息,防止技术风险向现实社会外溢。
对服务提供者
适用过错责任原则并非对风险的放任,而是希望通过更具弹性和适应性的规则设计,引导服务提供者持续改进技术、完善风险防控机制,以创新本身回应发展过程中出现的问题。
对社会公众
在面对生成式人工智能高度流畅、自然的语言应答时,应保持必要的警觉与理性认知。当前技术条件下,大模型本质上是生活和工作中的“文本辅助生成器”和“信息查询工具”,尚不足以充当可靠的“知识权威”,更不能作为替代个人判断的“决策者”。对AI生成内容的轻信与盲从,可能放大“幻觉”带来的风险。只有在理性使用的前提下,AI才能真正成为增强个人能力的工具。