English | 中文 | 旧版
  • 意见建议信箱
    如果您对学院工作有什么意见、建议,请写邮件至: cufelawyjjy@163.com
  • 数字经济与法治工作坊第13期 聚焦“人工智能与法律的对话2”

    发布时间:2023/03/02

    2023年2月28日晚7点,中财数字经济与法治工作坊第13期读书会在主教808成功举行。本次工作坊由法学院2022级宪法与行政法学硕士生戚轶威、2020级本科生莫荣凡和2021级本科生罗榆雯担任报告人,2022级法律硕士生李梦文担任与谈人,2021级法律硕士生王浩羽担任主持人。此次工作坊重点研读了德国学者托马斯·威施迈耶、蒂莫·拉德马赫所著的《人工智能与法律的对话2》一书,活动包括读书分享、与谈、自由讨论和嘉宾评议四个环节。指导老师中央财经大学数字经济与法治研究中心执行主任刘权老师参与活动。

    ADA83

    读书分享环节,戚轶威同学首先分享了对本书第一部分内容的阅读感想,重点讨论了数据保护立法、人工智能决策与个人自决权、智能决策的透明度与歧视性、人工智能部分权利人格等问题。人工智能依赖于对大量个人数据的处理,“激活”了欧盟数据保护法,从而大大减少了人工智能技术的公共开发者、私营开发者以及用户的操作空间。就数据保护立法而言,可以通过对欧洲的数据保护基本权利进行解释,为欧盟及成员国的立法者平衡人工智能的机遇和风险提供更大的空间。以医疗保险、信用评分和中国社会信用体系为例,读者可以较直观地理解人工智能系统对人类自主性和个人自决权的威胁。

    涉及人工智能决策和预测的透明度(“黑箱”现象),戚轶威同学认为,透明度监管应被视为一种手段,以抵消人工智能兴起时普遍存在的无知和普遍存在的被剥夺公民权的感觉,而不是以绝对原则为圭臬。同时,要加强智能系统的非歧视原则,交叉法学和法外知识学就必须共同发挥作用,重视面向统计知识创造的方式。此外,对于人工智能(或称智能代理人)是否应当具有法律上的权利能力,戚轶威同学指出,沿用德国关于部分权利能力的概念,将“反向动物规则”适用于人工智能领域,可以明确智能代理人并不是人,其大部分时间内都是物,但是在与其职能相一致的范围内仍然可以获得一定的权利能力。

    8243E

    莫荣凡同学和罗榆雯随后分享了本书第二部分的内容。莫荣凡同学分析了人工智能对社交媒体、法律科技、不确定条件的行政决定、执法和金融市场等领域带来的影响与挑战。莫荣凡同学指出,社交媒体提供商使用人工智能技术,不仅是为了保持其服务内容的完整性,更重要的是出于商业目的,向个人用户展示符合其个人偏好的内容,而由于社交媒体具有公共属性,这可能导致用户遭受“滤泡效应”或“回音室效应”,分裂作为一个整体的民主公共领域,甚至造成多数意见的“独裁”。

    “法律科技”一词是人工智能影响立法和法律适用后产生的新概念,法律科技涵盖了法律领域中所有的信息技术,与数据有密不可分的关系,立法者应审慎制定规制标准,将基本的法律原则内化到硬件和软件之中,从而重新建构法治并将其移植到技术基础设施之上。就行政决定而言,在充满风险和不确定性的条件下,人工智能揭露了行政决定中既有的大量偏见和认知错误,具有使行政机关变得更加智能化、公平化和高效化的潜力。而对于人工智能在执法领域的应用,莫荣凡同学认为,立法者需要通过明确的法律文本规定来保持执法活动中人的可问责性,人工智能执法应当克服人力执法工作中长期存在的歧视。最后,人工智能与金融市场之间是相辅相成的关系,对于一个几乎所有参与者都完全按照利润最大化逻辑行事的行业来说,人工智能技术的应用潜能是极为可观的,但金融市场无论如何都需要人为因素参与调控,这是接纳技术的同时所必须坚持的原则。

    76413

    罗榆雯同学与大家探讨了人工智能在政府治理、税收、医疗和市场竞争等领域中的实践现状与困境。罗榆雯同学认为,人工智能技术的冲击在上述领域内撕开了广泛的法律空白,最本质原因在于,人工智能是一种可以“自行生长”“自行发育”的人造物。在黑箱的其中一端,使用者提供相关的数据,便可得到算法提供的结果,至于黑箱中数据迭代、演化的过程,则是难以追溯的。这种特性直接导致了人工智能目前在实践中的应用困境,主要包括:(1)监管者难以对算法演化进行跟踪调查,引发了制度设计难题;(2)相关责任的分配出现纠纷,且囿于技术限制,难以调和;(3)人工智能人格化还是依附于现存人格的窘境;(4)一个人工智能的绝对理性对现实的冲击,例如,在医疗保健中,人工智能算法对传统医学伦理学的挑战。

    对于这部分问题,罗榆雯同学认为,人工智能人格化存在巨大的伦理风险,当人工智能的应用出现问题时,应尽可能探究程序中的缺陷,审慎区分使用者与开发者的责任,并在必要时对其赋与严格责任;同时,在日常的监管中,也应当从人工智能产出结果的价值取向、算法演化的复杂过程两个维度,尽可能把握人工智能演化的发展方向。总体而言,无论是从现实中几个重要国家和地区的既存战略,还是从对科学创新的持之以恒的追求来看,对人工智能的发展都应当保持积极的、鼓励的态度,而非禁止性的、消极的。

    6B16B

    与谈环节,2022级法律硕士李梦文总结了三位分享人的报告内容,并结合其报告分享了自己的阅读体会。首先,本书的核心观点是人工智能中所涉及的算法、数据、平台不仅是治理对象,在数字时代,人工智能技术也被应用于数据时代的社会治理和管理,也就有了现在的“互联网+、智慧医疗、智慧政府、智慧服务”。其次,就作者在法律科技与智慧行政部分反复提及的两个问题(即“法的本体是否已被代码化”和“法律的技术方法是否已经换上人工智能的武器”),李梦文同学认为,虽然目前机器学习算法应用于包括行政在内的社会各领域,但并不能作为法的渊源,输出新的法律架构。而法的要素构成,更不是一个严格形式化的结构。人工智能能够在法律实施的手段上予以助力,但传统技术能否对人工智能进行监管是值得担忧的。技术代替人做出的决策是具有法律约束力的,也因此需保证其可问责性。

    在行政监管的回应上,大型互联网公司与监管机构之间的算法博弈值得警惕。用于监管的“执行算法”和互联网公司业务所需的复杂算法相比仍存在差距,仅从技术能力上进行比较,行政机关相较于互联网公司处于弱势,未来的监管方向仍是值得探讨的议题。最后,李梦文同学表示,对人工智能的把握不仅要从技术上实现,更要从人文、社科的角度来看待,才能对其在人类社会中的发展有更深刻的理解,利用人工智能创造一个更加科技化、人性化的法治社会。

    6C718

    自由讨论环节,20级本科生王汉申和21级本科生袁婉宁分别就行政机关现有的裁量权能否交由人工智能、人工智能决策所具有的约束力的限度,以及法律的滞后性与人工智能学习的时效性之间的矛盾,向报告人和与会同学提出了问题。三位报告人和与会同学22级法律硕士生李梦文、21级法律硕士生王浩羽、廖嘉林先后就上述问题阐述了自己的观点,现场讨论氛围十分热烈。

    8D736

    嘉宾评议环节,刘权老师对三位同学的充实而精彩读书报告表示赞赏,并肯定了与会同学在与谈和讨论环节提出的观点。刘权老师认为,人工智能的核心在于算法,算法则依靠数据支撑,因此,人工智能的技术效用直接受到前期选取的数据的影响,应注意数据选取过程中可能存在的偏见或歧视。在公法领域,人工智能在立法、执法、司法等环节的应用有助于提高理性和效率,但可能会牺牲公平。例如,技术的应用可能限制或剥夺原有的裁量空间,传统的执法和司法活动中,法官需根据其自由心证或既往的经验进行裁量,而现阶段的人工智能仍处于低水平阶段,属于弱人工智能,尚无法完成这样的自由裁量,现有技术的应用场景主要为辅助决策,全自动化决策场景占比较少。在人工智能辅助决策的场景下,仍需依靠人类思维,从主观恶性、客观危害性等角度进行具体的决策分析。

    涉及人工智能应用的责任分配问题,刘权老师指出,要探讨责任分配,首先应厘清人工智能是否具有主体性,属于主体还是客体。在现阶段,甚至未来很长的一段时期内,人工智能还是人类所使用的客体,在责任分配上,无论是自动驾驶还是自动化医疗器械的使用,承担责任的主体仍然应当是使用者、生产者。此外,很多人工智能都具有深度学习能力,在其不断学习的过程中,算法可能超出开发者设置的原始代码,而对于超出开发者原始设计范围的算法,其自主进行决策造成的问题,应当如何归责,需要作进一步探讨。

    ED00C

    最后,刘权老师表示,近日,中共中央办公厅、国务院办公厅印发了《关于加强新时代法学教育和法学理论研究的意见》,明确提出“加快发展社会治理法学、科技法学、数字法学、气候法学、海洋法学等新兴学科”。数字时代,许多新兴问题超出了现有法律的调整范畴,需要新的法律理念和制度,希望同学们对数字法学相关议题保持关注,从公法和私法的角度深入探讨。

    在热烈的掌声中,中央财经大学数字经济与法治工作坊第十三期圆满结束。



    文、图/ 项若雯

    分享到: