机器人安全隐患谁来兜底
2025-12-03 15:53:36 来源:法人杂志 作者:辛红 姚瑶

文 | 《法治日报》记者 辛红 《法人》见习记者 姚瑶

《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》多次提及人工智能发展,足见政策层面对人工智能技术的重视,释放了鼓励人工智能产业发展的积极信号。建议还提到加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则。

作为人工智能在物理世界的重要载体,今年以来,我国机器人产量实现快速增长。前三季度,工业机器人产量59.5万台,服务机器人产量1350万套,两大类产品均已超过2024年全年产量。随着机器人产品不断迭代,企业积极探索规模化应用,具身机器人开始步入人们生活。然而,在该产业迅猛发展的背后,可能存在的安全问题日益受到关注。

2025大湾区国际具身智能机器人产业大会上的戴盟机器人 CFP

近期,在首届人形机器人运动会上,宇树公司的H1机器人在1500米赛跑中将跑道旁的行人撞倒,但该机器人并未停下脚步,继续奔跑,涉事视频在网上广泛传播。不少人认为因工作人员操作失误导致,“撞人逃逸”显得有些可爱,但也有部分网民认为,无论是否为工作人员操控导致,机器人仍然存在安全隐患。那么,机器人伤人的责任应如何认定?若机器人的行为源于自主决策而非人为直接操控时,又将产生哪些法律问题?针对机器人在安全合规方面的法律问题,《法人》记者采访了盈科北京数字经济法律研究会主任王风和、北京金诚同达(上海)律师事务所管理合伙人、高级合伙人张云燕。

安全隐患谁来“兜底”

《法人》:目前,针对机器人伤人或其他损害事故的责任认定,我国有哪些可依据的法律规定?

王风和:我国针对机器人领域的立法体系还不完善,基本处于人工智能产业促进性政策的早期规定阶段,也有个别地方政府在尝试地方性示范立法。如今年10月浙江杭州率先出台《杭州市促进具身智能机器人产业发展条例(草案)》,经杭州市政府常务会议审议通过,下一步拟提交杭州市人大常委会审议。

若是出现机器人伤人事件,可以从侵权角度出发建立法律归责基础。根据《中华人民共和国民法典》(以下简称“民法典”)第一千一百六十五条,行为人因过错侵害他人民事权益造成损害的,应承担侵权责任。因此,如果机器人因为使用者操作不当、管理不善等过错导致事故,那么使用者或管理者需要承担责任。若是产品本身存在设计、制造缺陷造成他人损害,根据民法典第一千二百零二条规定,生产者应当承担侵权责任。也就是说,无论生产者或销售者是否存在过错,都需要承担产品缺陷带来的法律责任。此外,若机器人本身的产品缺陷导致损害,消费者可依据《中华人民共和国消费者权益保护法》(以下简称“消费者权益保护法”)第四十条规定向销售者或生产者索赔。

当然,目前人工智能产业方兴未艾,我们需要有一种包容的态度去理性对待机器人撞人等侵权事件。

《法人》:地方立法在此基础上应有哪些突破?

张云燕:我国针对此类事故的核心法律规定为民法典的侵权责任编,尤其是侵权责任编中的“产品责任”部分以及相应的司法解释。除此之外,产品质量法和消费者权益保护法也可适用,但这些规定还是基于传统“产品”思路,对智能机器人这种高度自主甚至拥有某种程度智慧的“新生物”,还缺乏有针对性的法律规制。

未来,地方立法可在两方面实现突破:一是通过强制生产机器人的企业购买责任保险或设立行业赔偿基金,增强损害救济能力。二是引入“沙盒监管”机制,在限定范围和条件下允许企业开展创新试验,并配套设置责任缓冲或豁免规则,这样既保护公众安全,又为产业创新保留必要空间。

自主决策致损如何认定

《法人》:当机器人的行为源于自主决策而非人为直接操控时,在民法典侵权责任编的框架下应如何适用?生产者、使用者、软件开发者各方责任应如何划分?

王风和:我国民法典侵权责任编对于机器人的规制,主要建立在两个核心原则之上:过错责任与无过错责任归责原则。虽然我国当前尚未出现自主决策机器人,但如果以后一旦算法实现突破,自主决策机器人这类AI产品将对立法产生极大挑战。例如,民法典规定的过错责任要求证明行为人(如使用者或生产者)存在“过错”(故意或过失)。当损害结果由机器人的“自主”算法造成时,很难直接归咎于任何一方的具体过失,而让其中一方承担法律责任。我国现行法律所指的责任最终要落实到人或有意识的主体身上,不能落到冰冷的机器上。

在机器人的生产者、使用者、软件开发者各方责任应如何划分方面,我认为若发生机器人伤人事件,使用者可能声称“我什么都没做,是它自己决定的”,生产者则可能抗辩“算法运行符合设计,环境因素不可预测”等。但是,无论人类如何抗辩,机器人的生产者、使用者、软件开发者最终要负兜底法律责任。

另外,由于法律滞后性的特点,目前尚未对有自主思想的AI工具进行立法活动,因此对此类AI产品的具体责任划分还需要通过完善立法实现。建议借鉴欧盟《人工智能法案》的立法思路,为高风险AI系统设立严格的规制框架,并由其“操作者”承担更为严格的法律责任。

张云燕:按照现有法律框架,生产者要对产品缺陷负责、使用者对不当使用负责,开发者在软件存在明显缺陷时也要承担相应责任。但机器人作为一个高度复杂的科技产品,当其真正开始“自主”决策时,因果链条与主观过错往往难以清晰界定,从而导致责任边界模糊。

在此类情境中,建议对各方责任作出区分:生产者首先要确保机器人的硬件设备和基础安全保障符合国家或者行业通行标准,并对使用者做好产品风险提示,明确智能机器人在自主决策的情况下,大概会有哪些可能的行为出现;软件开发者要保证自身软件开发过程中没有明显的、违反国家或行业通行标准的缺陷,不侵犯其他主体的知识产权、保证软件与硬件的适配性;使用者如果超范围使用或私自破解或绕开生产者、软件开发者对机器人的安全设定,违规使用产品,也要承担责任。

未来,此类案件极可能引入“共同责任+比例分担”模式,甚至探索机器人的智能水平分级制度,避免出现无人兜底的情况。

从分级监管到合规前置

《法人》:除了数据安全方面的法律风险外,机器人产业还面临哪些容易被忽视的法律风险?

张云燕:首当其冲的就是知识产权风险,特别是开源技术。再有,比如机器人进入外卖、快递、交通等传统行业,势必会替代部分岗位,加剧社会就业矛盾。此外,机器人可能存在算法歧视问题。例如,语音识别系统对特定口音或残障人士的识别率低,可能让他们被排除在服务之外,这是一种典型的“技术歧视”。

王风和:AI的伦理与人格权风险,也是亟须重视的问题。目前,开发者开发的机器人越来越像“人”,这会引发独特的和人有关的法律问题。例如,机器人的外观设计、名称、声音若与特定自然人(尤其是名人)高度相似,可能侵犯他人肖像权、姓名权。一款服务型机器人被设计成与某明星相似的外貌和声音用于商业推广,未经该明星授权,很可能造成人格权侵权。

《法人》:从监管角度看,应如何保障具身智能产业合规发展?

张云燕:应该坚持“包容审慎”的态度,毕竟智能机器人是个新兴产业,既要防止风险,又要给企业留出成长空间。除了之前谈到的“沙盒监管”机制外,还可以通过分级监管,对不同应用场景和智能水平的机器人实施差异化准入与监管要求,或者直接采取“先发展、后监管”的策略,先放宽监管条件,允许企业自由发展一段时间后,对在实践中产生的问题制定有针对性的行政法规、司法解释等,实现“在创新中发展、在发展中合规、在合规中进步”的良性循环。

《法人》:对具身机器人开发企业有何建议?

王风和:企业要重视合规前置,将AI伦理内嵌于技术程序中。企业可践行“合规始于设计”,将法律、安全和伦理风险评估融入企业产品定义和研发的最早期阶段,而非事后补救;设立专门合规官或伦理官岗位,并把伦理、法律实质融入科技程序中;制定负责任的AI战略,公开发布企业的AI原则和社会承诺,并将其贯穿于技术开发、产品应用和公司文化中,这将极大增强公众和监管机构的信任。

在技术研发方面要做到自主可控,核心技术自主创新,减少对国外开源技术和组件的过度依赖,尤其是在关键算法、操作系统、芯片等领域,加大研发投入,构建自主知识产权体系,规避“卡脖子”和开源风险。让合规安全透明,还要提升算法的可解释性,致力于开发可解释、可追溯的算法模型,避免决策黑箱。当机器人作出决策时,企业应能向用户和监管机构清晰说明其决策逻辑,这是建立监管信任的关键。

此外,企业还应与产业链上下游建立合作,共同打造产业生态圈,与学术界、实务界开放合作,相互包容成长,共创共赢。

张云燕:对于企业而言,要积极主动参与标准制定。标准不仅是行业规则,也决定了企业的技术话语权。如果企业参与标准制定,可以提前掌握行业发展方向,让自己的技术和产品在市场上更容易被认可。同时,参与标准制定还能规避潜在法律风险,因企业熟悉标准内容,能在产品设计和技术方案中主动符合相关要求,避免因不合规而被追责。此外,标准化也有助于企业拓展国际市场,提升品牌信誉和影响力。

来源|《法人》杂志

审核|白馗 王婧 渠洋

校对|惠宁宁 张雪慧 张波


编辑:张波