English | 中文
  • 意见建议

    如果您对学院工作有什么意见建议,请与我们联系

    当前位置: 中央财经大学法学院 / 新闻动态 / 正文

    金融科技法治研究团队开展智能体应用、风险及规制研讨

    发布时间:2026/05/07

    4月28日晚,法学院邓建鹏教授指导的金融科技法治研究团队就智能体的功能应用、法律风险及监管规制展开了专题研讨。本次专题研讨会由2023级法律硕士生赵治松结合现场实操演示,全面剖析当前智能体带来的技术风险法制挑战,金融科技法治研究团队七位在校研究生同学共同交流。

    首先,关于智能体的结构。赵治松结合亲身使用体验,将智能体的核心架构比喻为“躯体+大脑+技能包”的组合。他以Openclaw为例,本体是执行指令的躯体;外部大模型是提供决策的大脑;技能(Skill)则是扩展小龙虾各种实用功能的插件。目前主流模式分为两类,OpenClaw为代表的智能体可以自由调用外部大模型和开源代码,扩展性较强;而以QClaw为代表的智能体通常为自研模型的拓展功能和适用场景通常较为封闭

    其次,关于智能体的功能。赵治松通过实际操作展示了智能体主要功能,如通过手机对话远程操控电脑,完成文档处理、文件检索、远程数据传输数据整理以及检索抓取网页信息等操作,在实操过程中可以发现小龙虾具备长对话的持续记忆以及自我学习和修正能力,可以学习用户操作习惯从而精确相应用户命令,真正将语言转化为行动。但同时赵治松也指出智能体功能上的弊端,如智能体运行需要电脑持续联网并保持开启状态,且调用API接口需要按Token计费,私人使用成本较高。

    最后,关于智能体的法律风险及监管问题。赵治松提到,智能体能力与个人隐私数据访问权限的开放程度成正相关,智能体会将本文件上传至云端大模型,数据泄露风险极高此外,开源技能市场审核不严,可能存在恶意代码、后门漏洞等信息安全隐患,因此相关监管规则亟需完善。当前主流智能体法律责任的认定和分配较为困难。其中基础模型可凭借“AI幻觉风险提示”免责,Openclaw等执行模块可以“仅属于执行用户命令”的理由主张免责,技能模块则可以以开源且仅为功能拓展为由主张免责因此,在用户组合使用时产生的侵权责任难以得到精确的划分

    针对上述风险,赵治松借鉴域外监管思路提出一是增加人工监管介入节点;二是增加SOP流程,规制智能体的标准化执行流程三是增加行为可恢复的监管要求。相较于一般算法备案和审查的监督模式而言效用更为显著。

    在专题汇报交流后,博士生罗敬蔚及马牧青等就“小龙虾”运行特征与法律风险等提出系列问题,邓建鹏教授针对智能体尤其是“小龙虾”的模块化组合及不同模块间的法律风险与法律责任问题提出了一些见解,并为下一步创新学术研究为同学们提供了一参考建议。

    此次以“小龙虾”为主题的研讨不仅通过现场实操方式直观展示了智能体的技术优势应用场景,同时也从法学角度深入揭示了目前当前智能体所面临的隐私安全、责任认定和监管缺位等核心问题。近年来,在法学院“数字法学”学术氛围影响下,金融科技法治研究团队在CSSCI来源期刊发表人工智能相关法学与监管论文近十篇,一些监管对策获政府决策部门的肯定性批示,在本领域学术界有一定的影响力。


    文∕图:潘奕杉

    审稿:邓建鹏、孙颖

    分享到: