“人工智能幻觉致损”等议题引发学界关注。

3月19日,“探寻人工智能法治研究的真问题(第二季)”研讨会通过线上直播形式举行。会议由中国政法大学人工智能法研究院、西南政法大学科技法学研究院、华东政法大学数字法治研究院等多家单位联合主办,发布了《人工智能法治研究十大议题(2026)》。

中国政法大学人工智能法研究院院长张凌寒教授介绍,与2025年十大议题划定“主要坐标”不同,今年的议题更强调“小切口、深挖掘”,“我们希望用真问题推动真研究,用真研究产生真成果”。

最高人民法院咨询委员会副主任、中国法学会网络与信息法学研究会会长姜伟表示,前述十大议题紧贴人工智能行业现实,紧扣国家战略需求,紧盯产业实践问题,专家学者要聚焦生成式人工智能治理等重点难点,推动成果转化。同时,推动建构中国人工智能法治自主知识体系,统筹发展和安全,把法治思维贯穿人工智能研发应用全链条。

四川大学法学院教授左卫民提出两点观察:一是十大议题是当前AI发展面临的现实问题,但目前的议题主要偏学者和产业界视角,未来需要加入公众和消费者的视角,“同一个问题,不同主体期待的法律解决路径可能完全不同”;二是除十大议题外,国家安全、公共安全层面的人工智能运用问题同样值得关注,例如如何通过法治促进芯片等基础设施建设和安全保障。

南开大学法学院院长宋华琳关注规制工具选择,认为人工智能立法过程中需要平衡产业发展与风险防范,发展行政法与风险行政法如何协调是需要深入研究的问题。他还提出,分级分类的法理基础、规制工具的选择、第三方治理的作用、技术标准与伦理规范的衔接等,都是值得探讨的方向。

从“养龙虾”谈起:智能体的法律挑战

研讨会上,第一项议题“智能体的行为边界、授权机制与竞争治理”引发关注。

“把这一议题作为第一个,和当前非常热门的‘养龙虾’(OpenCLaw智能体)有关。”对外经济贸易大学数字经济与法律创新研究中心主任许可指出,智能体可以帮用户发消息、做决策、谈合作,代表着人工智能从“会说话”到“会办事”的转变,已真正进入真实生活,但也带来大量法律挑战。

从研究角度看,智能体的出现很具挑战性,因为它瓦解了很多传统隐私和法学理论所依赖的环境。浙江大学数字法治研究院研究员李汶龙表示,一方面,通过笼统的授权,传统意义上公域私域的二分格局已被打破。另一方面,智能体打破了原有的竞争生态,需要建立新的公平有序的竞争规则。

许可将智能体面临的困境称为“任督二脉”的问题。“如果智能体犯了错,所有责任都由用户承担吗?它能不能以‘代理人’身份作为免责借口?”他认为,这些问题成为了智能体产业发展的“任督二脉”——打通了,产业才能繁荣。

合理信赖如何界定:人工智能幻觉致损成新难题

随着生成式人工智能技术迭代升级,人工智能幻觉导致用户采信错误内容并造成实际损害的情形,正在成为法律适用中的新难题。

澎湃新闻注意到,前述议题第三项围绕“生成式人工智能幻觉致损风险防范与责任承担”展开,引发广泛讨论。西北政法大学人工智能法治研究中心杨建军教授指出,当前生成式人工智能技术快速迭代,已跳出单纯生成内容的基础定位,在海量场景中进入信息筛选、分析、判断乃至核心决策环节。与之相伴的是,用户自主审查核验生成内容真实性的能力持续弱化。

“这一现实转变让人工智能幻觉致损的法律核心矛盾发生根本迁移。”他表示,过去关注的是生成内容本身是否违法、是否属于不良信息,而当下更需要直面的是:用户基于合理信任采信错误内容后,引发的人身损害、财产损失,责任如何划分?

他强调,“合理性标准的界定”成为当前法律适用和风险防范的核心痛点。杨建军还关注到实践中AI服务提供者普遍使用的“仅供参考”免责声明。“这类条款能否作为幻觉致损后免除责任的依据存在争议:如果一概认定有效,会变相弱化平台的内容管控义务;如果一概否定,又会过度限制AI产业发展。”

“这一议题的提出与已出现的司法案件有关。”许可补充说,去年年底,杭州互联网法院审理了“生成式人工智能幻觉第一案”——用户因人工智能编造信息索赔十万元,最终被法院驳回。“在幻觉技术上无法完全消除的情况下,如何合理划定注意义务尺度、准确找到责任方是核心难题,围绕归责原则的讨论仍有空间。”

拟人化互动:情感连接背后的法律风险

陪伴型AI的快速崛起,让“人工智能拟人化互动的法律风险及回应”也成为议题焦点。

“随着多模态AI和情感计算技术发展,陪伴型人工智能快速兴起,从AI伴侣到虚拟偶像,正在塑造新型人际交往模式。”中国信息通信研究院主任工程师程莹提醒,这类拟人化互动服务让用户倍感亲切,但风险恰恰隐藏在这种“亲切”背后。

中国人民公安大学数据法学研究院院长苏宇同时表示,拟人化互动在提升用户体验、增强产品粘性的同时,可能引发过度信赖、情感依赖、操纵、欺诈乃至关系替代等新型风险,“这些风险具有隐蔽性、渐进性和难以量化的特征,实践中已出现用户听从智能助手建议给陌生账户转账被骗、AI诱导青少年自杀等案例”。

“在传统人工智能风险治理框架中,目光大多聚焦算法歧视、自动化决策不透明或数据权益侵害。而拟人化互动带来的风险更为隐蔽,作用于个体的认知防线与心理,可能导致用户形成深度沉迷与过度依赖。”程莹进一步表示,如何区分一般的用户体验提升和具有规范意义的伦理风险,是需要解决的问题。

她认为,现行法律可能需要通过建立强制性风险提示、动态交互干预机制、针对性产品设计准则,来化解拟人化互动中的风险问题。同时需要调整围绕明确可预见损害建立的侵权责任制度,建立有效的救济体系。

苏宇还进一步追问:当前对生成式人工智能的主要监管工具——包括算法备案、算法透明、强制标识、结果审查——能否实现对拟人化互动服务的有效监管?针对未成年人、老年人等特殊群体,如何合理设置情感交互的伦理边界,如何建立不同于一般用户的防沉迷和干预机制?“这些特殊的风险,需要进一步思考和审视。”他说。