欢迎访问北京阳光知识产权调解中心!
首页 - 新闻动态 - 行业动态

王毓莹 刘旭冉 | 涉人工智能司法纠纷应对研究

热点 发布时间:2025-07-01 04:15:45

作者 | 王毓莹  刘旭冉 中国政法大学

来源 | 人民司法杂志


编者按 


当前,人工智能作为引领新一轮科技革命和产业变革的战略性技术,正深刻改变着人类的生产生活方式。与此同时,全球范围内不断出现与人工智能相关的热点案件与新型案件,受到广泛关注和热烈讨论。对于人工智能的快速发展,我国司法也在积极回应。最高人民法院将积极稳妥推进关于算法伦理、算法规则等AI人工智能领域的司法规制,依法妥善审理涉AI人工智能侵权、合同纠纷等案件,不断探索、总结涉及人工智能纠纷的裁判规则,助力完善生成式人工智能发展和管理机制。


本期策划推出的4篇文章,立足我国审判实务,依据我国相关法律的规定,采用理论联系实践的方法,对人工智能技术与产业应用所带来的相关疑难复杂、前沿性问题进行深入研究,提出了作者通过深入思考所形成的解决问题的方案。敬请关注,欢迎来稿。


应用

2025年

6月策划

系列文章之一

涉人工智能司法纠纷应对研究


本文系最高人民法院2024年度司法研究重大课题“涉人工智能纠纷司法应对研究”(课题编号:GFZDKT2024B11-2)的阶段性研究成果。


目次

一、人工智能的技术本质与法律主体定位重构

二、涉人工智能纠纷类型化分析与司法困境

三、人工智能纠纷司法应对的适应性优化路径



人工智能是当下数字技术时代的热点,党的十八大以来,习近平总书记高度重视人工智能发展,多次谈及人工智能重要性。最高人民法院《关于规范和加强人工智能司法应用的意见》明确指出,到2030年需建成具有规则引领和应用示范效应的司法人工智能技术应用和理论体系。近年来,越来越多的人工智能技术应用进入人类社会日常生活,给现有的法律秩序带来了巨大冲击。国务院自2023年开始已经连续两年将人工智能立法列入立法工作计划,人工智能立法即将迈入新阶段,但目前尚无关于人工智能司法纠纷的专门法律规范。


对于“人工智能”这一概念的定义较多,侧重点也不尽相同。1950年艾伦·图灵(Alan Turing)在论文中首次提出“机器能否思考”的核心问题,并设计“图灵测试”作为判断机器智能的标准。而“人工智能”这一概念始于1956年美国达特茅斯会议。麦卡锡在该会议中提出,人工智能是“关于智能计算机程序的科学”。对于人工智能的定义往往需要结合具体研究领域和研究目的来进行界定。当前,人工智能的实质被认为是“一种现代的方法”,包括像人一样思考、像人一样行动、合理地思考、合理地行动4个维度。若从一般的科学角度而言,人工智能是指以机器学习


为基础,为实现特定目标而自主运行的系统。但这一定义并不能反映出其对于司法领域的特殊影响,当下数字技术时代,人工智能技术的发展正在重塑司法领域的运行逻辑,以算法为代表的技术理性正在对法律理性发起全面挑战。 笔者将以解决人工智能司法纠纷难题为出发点,针对人工智能对法律制度的冲击进行针对性分析。


人工智能的技术本质与法律主体定位重构


在数字技术深度重塑社会治理格局的当下,人工智能以其独特的技术属性对传统法律体系产生了系统性冲击。作为探讨涉人工智能纠纷司法应对的逻辑起点,精准解构人工智能的技术属性并重塑其法律定位,既是摆脱技术黑箱困境的认知基础,也是构建适应性法律规则的理论前提。


(一)人工智能的技术特性及法律风险


人工智能不同于传统意义上的先进技术,具有类似人类独立思考与深度学习的能力是人工智能与其他科技最大的差异[中国电子技术标准化研究院在《人工智能产业发展联盟:中国人工智能产业知识产权白皮书(2019)》中定义人工智能为“利用计算机模拟人类智能的理论、方法及应用系统”]。其是以算法为核心、数据为燃料、算力为支撑的技术生态系统,其技术属性的复合性决定了法律规制的复杂性。在司法实践中,这种复杂性集中表现为技术特征与法律概念的适配障碍,传统法律对“工具”“主体”“行为”的界定框架,难以准确涵盖人工智能系统的自主决策特性、数据驱动机制与社会影响后果。在算法时代,传统的法律推理模式面临着前所未有的系统性挑战。


人工智能经过一系列发展,当下最贴近每个人生活的便是以“Chatgpt”“Deepseek”为代表的生成式人工智能,这一类生成式人工智能的核心在于其拥有类似于人类的思考及自主决策能力。这种技术架构打破了传统计算机程序“输入—处理— 输出”的线性逻辑,转而构建了一个可以自主学习、不断优化迭代的闭环系统,换而言之,之前的计算机程序只能根据既有的数据库来处理相关的指令,但人工智能可以不断通过数据持续训练学习,生成可能的决策结果并且会展示其生成答案过程的思考逻辑。例如,自动驾驶系统的路径规划算法、智能医疗系统的诊疗建议模型,均体现出对人类经验判断的模拟乃至超越。


然而,这种技术进步也催生了独特的法律风险。首先是“算法黑箱”引发的归责困境,机器学习算法所建构的预测模型往往呈现出一种“黑箱”状态,其内在运作逻辑难以被常人所洞察。当量化投资模型因错误决策导致投资人资金损失、汽车自动驾驶系统因突发路况作出错误的驾驶决策时,开发者往往难以解释清楚突发情况背后的完整决策逻辑,因为人工智能的自主决策系统不适用传统的程序运行理论。同时,司法机关也面临着如何将技术风险转化为法律责任的难题。其次是决策自主性对行为归责的挑战。传统法律体系中一般要以人的行为分析责任划分,而人工智能的决策过程既非纯粹的工具执行,亦非完全的自主行为,其往往体现为复杂的“人机合作”行为模式,这样一来就容易导致责任划分不清晰。《生成式人工智能服务管理暂行办法》虽提出算法透明度要求,但在司法实践中,如何准确界定充分公开的界限、如何平衡商业秘密保护与司法审查需求,仍需进一步的规则细化。最后,人工智能技术复杂性对司法审判制度提出了新的挑战,要求审判人员需要具备更高的技术专业能力,审判程序也需要适配人工智能司法纠纷案件的高技术性特征,在证据认定、案件事实探明中需要作出改变。


(二)人工智能的法律主体地位


学界围绕人工智能法律主体地位形成了泾渭分明的理论阵营。“肯定说”主张赋予人工智能独立的法律人格,使其能够以自己名义享有权利、承担责任。“否定说”的学者占据多数,这种观点往往将人工智能单纯看作一种工具,坚持人类中心主义立场,强调法律人格必须基于自由意志与伦理判断能力,而人工智能的“智能”本质仍是人类理性的技术延伸。其产生之初即作为民事法律关系的客体而出现,虽然其可能代替人类从事相关的活动,但本质上是受其自身的算法而决定的,尚不具备人类所具有的自主思考的意识和能力。“折中说”主张通过法律拟制赋予人工智能有限的法律人格,因为大部分观点都认为人工智能发展还没有达到完全自主的地步,其与人类的思考、学习、创造能力相比还是有一定差距,完全赋予其法律人格存在诸多障碍。但人工智能的拟人化,使其在自主性、创造性方面不断逼近甚至超越人类,完全将其视为客体、工具已不合时宜。算法、机器人等行为主体的出现,使得权利主体日益呈现多元异构特征。故可考虑有限法律人格的设定,在特定领域和范围内赋予其一定权利和义务,无过错责任同时要明确其责任承担方式。


司法实践中则呈现出更为复杂的情形。在当前人工智能相关的知识产权纠纷中,法院大部分会采用采纳“独创性客观标准”认定AI生成物版权归属,但均将权利主体归于开发者或使用者;在产品侵权责任纠纷中,多数裁判通过扩大解释民法典“产品缺陷”条款进行责任的划分归属。传统法律体系以“人”为中心构建主体制度,民事主体需要具备意思表示能力与责任承担能力,刑事主体则以辨认控制能力为核心要件。当人工智能系统展现出一定程度的自主决策能力(如自动驾驶系统的紧急避险决策、医疗AI的诊疗建议生成),其是否具备法律主体资格、享有何种权利义务,成为司法实践无法回避的前沿问题。


笔者认为,人工智能首先应该是一种工具,因为无论人工智能未来发展到何种地步,目前而言其存在的首要意义将一直是为了服务人类,虽然其似乎拥有人类的智慧,拥有一定类似于人类的创造性,但他仍然无法成为真正意义上的人类。但是人工智能具有独立自主的行为能力,这一特性使得我们需要在一定程度上考虑在法律上赋予其特殊的法律人格,不能简单完全视所有人工智能技术都是传统的技术工具。可以在立法中单独规定一种特殊的法律人格,从而与传统的法律主体相区分,同时分场景、分层次确定主体资格认定标准,根据人工智能的自主决策能力与社会影响程度赋予相应法律地位。由于人工智能承担行为能力的后果有限,其具有的人格也是有限的法律人格,应适用特殊的法律规范。


因为司法实践中已经可以发现,“工具论”难以应对高风险场景的责任认定需求。“完全肯定说”则面临伦理与法律的双重困境:赋予人工智能民事主体资格可能冲击人类中心主义的法律伦理,且其缺乏真实意思表示能力与责任财产,无法实际承担法律责任。


要注意,无论采取何种主体认定模式,人工智能的权利义务均需受技术伦理原则的前置约束。在权利层面,经济性权利与伦理属性权利的区分标准需结合技术功能场景细化;在义务层面,算法透明义务的司法审查程度、风险提示义务的履行方式及人类监督接口的技术实现,均需在司法实践中形成可操作的判断规则。已有法院在数据侵权案件中要求开发者提交算法审计报告,展现了技术伦理约束的司法实践尝试,但统一适用标准仍待明确。


涉人工智能纠纷类型化分析与司法困境


在司法实践场域中,涉人工智能纠纷呈现出复杂多元的形态,其本质是技术逻辑与法律规则冲突的具象化体现。


(一)案件事实难以查明


人工智能的系统模型极为复杂,其背后往往牵扯到多方主体所提供的训练数据,同时背后的运行逻辑也无法真实展现。在证据认定环节,算法可解释性审查成为破解技术黑箱的关键。但在实践中,算法可解释性的审查范围与深度仍存在争议,例如对于商业秘密保护与司法审查需求的平衡,以及如何判断算法解释是否达到“合理清晰”标准,尚未形成统一的裁判尺度。不同法官可能基于不同的理解和判断标准进行裁决,导致司法实践中的不确定性增加。一些法官可能更注重算法的技术细节,要求开发者提供详细的算法原理和代码解释;而另一些法官可能更关注算法的实际效果和影响,侧重于对算法输出结果的审查。这种标准的不统一,使得类似案件在不同法院可能得到不同的判决结果,影响了司法的公正性和权威性。


电子证据证据效力的认定也面临着严峻挑战。智能设备生成的海量数据在真实性、关联性、合法性判断上,传统的审查规则难以适用。这些数据可能存在来源不明、易篡改等问题,如何确保其在司法裁判中的有效性和可靠性,成为亟待解决的问题。一些智能设备生成的数据可能没有明确的生成时间、地点和主体信息,难以确定其真实性;数据在传输和存储过程中也可能被篡改,影响其证据效力。此外,数据的关联性判断也较为复杂,需要考虑数据与案件事实之间的逻辑关系,以及数据的证明力大小 。


更深层次的困境在于技术黑箱与商业秘密保护的冲突。开发者可能以“算法核心参数涉及商业机密”为由拒绝披露决策逻辑,法院仅能依据第三方技术审计机构提供的简化版算法说明进行审查。这种“形式透明”与“实质隐蔽”的矛盾,使得可解释性审查沦为技术合规的表面工程。北京互联网法院在“AI换脸诈骗案”中突破传统证据关联性标准,要求平台提供算法推荐机制的动态影响评估报告,但如何量化推荐权重与损害结果之间的因果强度仍缺乏统一标准。


(二)责任难以划分


责任划分标准的重构是人工智能纠纷裁判的核心难点。在美国特斯拉 Autopilot 致死案中,事故发生时,车辆自动驾驶系统在面对突发路况时的决策引发争议,算法黑箱特性导致难以明确事故责任究竟应归咎于开发者算法设计缺陷、数据训练不足,还是人类驾驶员未尽到合理注意义务。法院尝试突破传统侵权责任理论,探索“人机协同过失”认定标准,强调在自动驾驶场景下,应综合考量算法设计安全性、数据更新及时性以及人类驾驶员的监管义务履行情况。这种责任认定模式实质上是将无过错责任原则与过错责任原则相融合,要求开发者承担算法设计的无过错责任,同时根据使用者过错程度进行责任比例划分。


智能医疗领域的误诊纠纷存在相似的问题,因为其与自动驾驶领域都极容易产生对人身健康、安全的侵害,是重大人身损害侵权纠纷案件的高发领域,也是需要着重关注的高风险领域。医疗AI系统给出错误诊疗建议时,往往背后涉及医师的专业判断义务与AI系统的技术可靠性,这两者之间的责任边界难以清晰界定,“双重过错”的叠加责任认定缺乏统一标准,使得受害者权益难以得到有效保障。


另外,数据财产相关案件的责任划分同样是司法实践中的一大难点和热点。当下,数据已经是数字时代的主要生成要素,被称为数字时代的“燃料”,可见其资源重要性。但数据的法律属性较为特殊,其具有无形性和非排他性的特征,同时其可能兼具人格权和财产权的双重属性,甚至关系国家、公共利益和安全。数据隐私泄露纠纷则呈现规模化、隐蔽化的特征。同时“算法偏见”放大了数据滥用的危害,暴露出平台企业在数据合规管理上的重大漏洞。我国个人信息保护法虽明确了平台责任,但在司法实践中,如何精准界定“算法设计缺陷”与“数据管理过失”,如何量化平台企业的过错程度,仍然存在诸多争议。美国最新的司法判决中,对于用于训练其人工智能法律研究平台的行为,法官认定不属于美国版权法中的“合理使用(Fair Use)”范畴。这一判决标志着美国法院首次对AI训练数据的版权争议作出明确裁定,并可能成为未来相关诉讼的重要法律先例。


(三)权利归属不明


人工智能领域司法纠纷中对于权利归属有争议的往往是知识产权领域相关的案件。我国对生成式AI使用作品的规范主要集中在《生成式人工智能服务管理暂行办法》,其第七条规定,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动;涉及知识产权的,不得侵害他人依法享有的知识产权。其特点在于对AI训练使用版权作品较为开放,只要不侵害版权作品复制权、信息网络传播权等著作权法上规定的权利即可。在知识产权领域,AI生成物的著作权归属问题持续引发热议。法院在判定 AI生成物著作权归属时,往往陷入创作主体认定的困境。难以从根本上解决人工智能生成内容的权利归属与收益分配问题,传统著作权法的 “人类中心主义” 原则在人工智能时代遭遇严峻挑战。


生物特征数据的权属争议更具特殊性。目前人脸识别技术大范围应用,生物特征信息往往具有人格权与财产权双重属性,虽然收集方往往会让被收集信息方签署相关的许可协议,但相关的生物特征数据并不会因人工智能的收集行为而发生权属转移,即便经匿名化处理,生物特征数据的处理仍应该需取得信息主体明示同意。同时数据在互联网的流动极为迅速和频繁,生物特征数据因为其具有独特的人身属性,法院在审理时可以根据生物特征进行权属认定。但其他数据并没有唯一可识别性,在互联网上辗转多方,已经难以确定数据的原始出处,此时数据财产的权利认定将陷入困境。


(四)审判程序规则不完善


算法技术领域有一个重要的规则——“透明度规则”,其要求开发者必须一定程度披露算法的运行逻辑和使用数据,但“透明度规则”的概念十分模糊,这导致透明度实施起来极为困难。“透明度”在法律语境中缺乏统一界定,不同领域的解释差异显著。技术层面的透明度指算法代码、数据训练过程的可解释性,如开发者需披露算法采用的机器学习模型(如神经网络结构)、训练数据来源和特征,但完全披露代码可能泄露商业秘密,因此实践中多采用“简化解释”,如提供算法决策的关键参数和影响因子,这种折中方式在保护商业利益的同时,难以满足司法审查的深度需求。结果层面的透明度要求AI系统向用户解释具体决策理由,如招聘AI需告知求职者被拒绝的关键因素(如信用评分不足),这种透明度相对容易实现,但可能流于形式,无法揭示深层算法逻辑。例如,用户仅知晓被拒原因是信用评分,却不知评分模型中存在隐性的地域或性别偏见。过程层面的透明度指算法运行的全流程记录,如实时工作日志、决策路径追溯,杭州互联网法院采用的区块链存证技术即属此类,但如何确保工作日志的完整性和可理解性仍是挑战,复杂的技术术语和数据格式让法官和公众难以真正理解算法决策过程。


同时,在人工智能司法纠纷处理的程序规则层面,现有诉讼程序的制度设计未能充分考量技术专业性带来的特殊挑战,导致案件审理陷入“技术查明难、争议化解慢、公信力变弱”的多重困境。从立案阶段开始,由于缺乏针对AI技术争议的专门分类指引,法院难以快速识别案件的核心技术要点(如算法类型、数据来源合法性、系统决策逻辑等),常导致案件被错误归类至传统民事、知识产权或侵权纠纷案由,延误专业审查时机。进入举证质证环节,技术型证据的特殊性与现行证据规则的适配性不足问题凸显:一方面,当事人需就算法运行日志、数据训练记录等专业性极强的证据进行举证,而此类证据往往涉及复杂的技术术语与商业秘密,原告常因技术能力不足或举证成本过高而陷入证明困境;另一方面,被告可能以保护商业秘密为由拒绝完整披露技术细节,法院缺乏强制披露的程序性规则,导致质证流于形式。


审理过程中,法官的技术认知缺口与现行程序的技术辅助机制缺失形成矛盾。面对算法黑箱、数据可视化分析等专业问题,法官常依赖临时咨询专家或启动鉴定程序,但民事诉讼法对技术专家参与的程序定位、意见效力及审查方式缺乏明确规定,导致专家意见的采信标准混乱,不同鉴定机构出具不同意见,法院只能延期审理以协调技术争议,可能使得裁判因技术说理模糊被上诉发回,严重影响司法效率与权威。此外,现行程序未建立针对技术争议的前置过滤机制,大量技术细节在庭审中被反复辩论,挤压法律争议的审理空间,进一步拉长审理周期。程序规则的滞后还导致裁判结果的可接受性受损。在缺乏专业技术审查流程的情况下,法院对技术事实的认定常依赖经验推断或类比传统案例,难以形成具有技术公信力的裁判理由。


这些纠纷类型的司法困境背后,折射出传统法律规则在应对人工智能挑战时的多重局限。证据规则层面,算法决策过程的不可解释性导致证据链断裂,使得司法机关难以查明案件事实;责任划分层面,“人机行为混合”的特性打破了传统侵权责任的认定逻辑,无法清晰界定开发者、使用者与监管者之间的责任边界;权利认定层面,新兴的创作主体和新型客体对于相关权利的归属产生了较大冲击;程序规则层面,现有诉讼程序缺乏对技术专业性的有效回应,导致案件审理周期长、裁判结果权威性不足。


人工智能纠纷司法应对的适应性优化路径


(一)构建专业化诉讼程序机制


针对人工智能纠纷的技术复杂性,笔者建议在中级以上法院设立特殊法庭,集中管辖涉人工智能的民事侵权、知识产权、数据纠纷等案件。这类专门化审判机构需配备兼具法律素养与技术背景的复合型法官,或建立法院与技术专家的协同裁判机制,通过制度化设计弥补司法者的技术认知缺口。例如,可通过修订人民陪审员法,将计算机科学、数据科学、人工智能伦理等领域的专家纳入人民陪审员范畴,允许其参与算法解释、数据真实性等技术争议的实质审查。


在具体案件审理中,对于涉及算法黑箱、神经网络决策逻辑等专业问题,法院从“司法技术顾问库”中邀请相关领域专家提供书面咨询意见或召开技术听证会,形成的专家意见可作为裁判说理的重要依据。北京、上海等地法院试点的技术调查官制度已积累一定经验,可在此基础上进一步制度化,明确技术调查官的选任标准、职责范围及意见效力,使其成为常态化的技术事实查明辅助力量。在诉讼流程设计上,应增设前置技术争议识别环节,要求当事人在立案时明确涉案 AI技术的具体类型及核心技术争议点,以便法院提前制定针对性的技术审查方案。对于举证责任分配,针对技术专业性较强的事项(如算法设计缺陷、数据来源合法性),可采用“举证责任缓和”规则:当原告初步证明损害结果与 AI 系统运行存在合理关联性后,举证责任转移至被告(开发者或使用者),由其提供算法安全认证报告、数据训练日志、合规审计文件等证据,证明技术应用符合行业安全标准且无重大过错;若被告能提交第三方机构出具的技术合规证明,可推定其在技术设计或使用过程中无过失,反之则推定存在过错,以此平衡双方的举证能力差异。在裁判规则提炼过程中,司法机关需要处理好法律稳定性与技术创新性的关系。一方面,需在现有法律框架内寻找裁判依据,确保法律适用的统一性;另一方面,又要根据人工智能技术特性进行规则创新,如确立“算法影响评估”前置审查程序、构建“技术陪审员”制度等。这些探索不仅有助于解决个案纠纷,更为构建人工智能时代的司法裁判体系积累了宝贵经验,推动着传统法律规则向适应技术发展的方向不断演进。


(二)完善技术型证据的审查认定规则


在人工智能纠纷中,技术型证据的审查认定是破解事实查明困境的关键,需针对智能设备生成数据、算法运行日志等特殊证据类型,构建契合技术特性的证据规则体系,平衡技术专业性与司法证明的规范性要求。


智能设备生成的海量电子证据(如算法运行日志、数据训练记录、系统决策轨迹等)具有高度技术性和复杂性,传统证据规则难以直接适用。在真实性认定上,可推广区块链存证、哈希值校验等技术手段,对算法运行的关键数据进行实时固化与链式存证,利用区块链不可篡改、可追溯的特性保障证据链的完整性。但需注意,当企业以商业秘密为由拒绝完全披露算法代码或核心数据时,法院应建立相关的应对机制:要求企业向法庭提交经过特殊技术处理后的算法逻辑摘要或数据特征说明,由技术专家在保密环境下进行审查,平衡商业秘密保护与司法查明需求。对于数据来源的合法性审查,需结合数据安全法、个人信息保护法等规定,审查数据收集是否获得必要授权、处理是否符合最小必要原则,尤其关注生物数据、敏感个人信息在AI训练中的使用合法性。


在关联性认定环节,需借助技术专家辅助,如对于医疗AI误诊纠纷,需对比AI训练数据的疾病特征覆盖范围、诊断算法的推理路径与患者临床表现,判断技术输出与损害结果之间的关联性强度。法院可引入“技术关联度评估标准”,综合考量数据完整性、算法可解释性、异常情况响应机制等因素,避免仅凭表面关联认定技术责任。


合法性审查需聚焦证据收集程序的合规性与技术标准的适用性。对于通过爬取、抓取等方式获取的公开数据,需审查是否违反平台用户协议;对于企业自建数据库中的训练数据,需核查数据标注的合法性及权利瑕疵。涉及跨境数据流动的案件,应依据我国数据出境安全评估制度,审查数据存储、传输是否符合跨境合规要求。此外,针对算法解释的“合理清晰”标准,可要求开发者提供与技术风险相匹配的解释层级:对高风险AI系统,需披露算法决策的关键参数、训练数据的代表性特征;对低风险系统(如娱乐类AI),可允许提供通俗易懂的决策理由说明。


(三)完善责任划分标准


人工智能在卷入侵权纠纷时,其侵权行为的作用机制往往难以清晰查明,使得侵权方可能涉及多方主体,人工智能致害侵权如适用过失责任,将产生较高制度成本。因此有观点指出,适用无过错责任不仅制度成本更低、救济效果更好。但笔者认为,责任划分的模糊性是涉人工智能纠纷裁判的核心痛点,需突破传统责任理论的单一框架,结合技术应用场景、主体行为特征及损害后果的因果关系,构建以分层分类责任认定标准,实现技术创新与权益保护的动态平衡。


在责任认定的基本原则层面,应坚持过错责任与无过错责任的差异化适用。对一些人工智能技术引发的一般性风险,如在使用前便明确告知使用者相关的技术缺陷或者正确的操作流程,使用者仍然无视提示,或者不按照标准流程操作导致的风险,可沿用过错责任原则,要求原告证明被告存在设计过失或使用过错(如擅自修改算法参数);而对于“非一般性风险”,即使用者无法预见的风险,如算法自主学习引发的不可预见损害或系统性偏差,应适用无过错责任,由开发者或使用者先行承担责任,因为此类侵权纠纷往往受害方的举证难度较高,此时应当更保护受害方,加重行为方的责任。同时,建立技术风险分级制度,参考欧盟《人工智能法案》的风险分类标准,对低风险系统(如简单数据统计工具)实行“使用者责任为主”,对高风险系统(如自动驾驶、医疗诊断AI)推行“开发者无过错责任”和“使用者合理注意义务”的双重责任模式,确保责任强度与技术风险相匹配。此外,需兼顾技术创新与社会公平,对处于研发试验阶段的人工智能应用,可设置“责任缓冲期”,为应对巨额赔偿可能对技术创新造成的抑制,实践中可以探索建立“人工智能责任保险基金”进行风险的分担平衡,人工智能开发者可以对其研发的产品进行合理的风险评估,选择不同种类、层次的保险,从而实现技术创新与风险防控的动态平衡。

在线留言