温州网视

西南政法大学校长林维:促进人工智能拟人化互动服务有序开展 引领人工智能“负责任创新”

  人工智能技术的突破性进展正推动人机交互模式从功能性辅助迈向情感化、人格化,这一变化不仅重塑着社会互动方式,同时也催生了一系列新型风险挑战。此类风险具有隐蔽传导特征,可能会侵害公民权益,甚至冲击社会伦理秩序与信任根基。若缺乏有效治理,将严重阻碍人工智能健康发展,损害社会公共利益。在此背景下,国家互联网信息办公室制定《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称《办法》),有利于促进人工智能拟人化互动服务有序开展,引领人工智能“负责任创新”,为构建以人为本的人工智能治理体系提供重要的制度支撑。

  锚定国家战略方向,彰显“负责任创新”理念

  《办法》以国家战略与政策导向为根本遵循,凸显了人工智能治理的前瞻性、精准性、系统性、协同性。一是坚持科学立法原则。合理前瞻技术演进趋势,秉持整体性思维,既鼓励技术创新以提升社会生产力,又通过动态调整监管强度实现“包容审慎”监管。深层逻辑在于构建技术演进与社会风险防控的协同机制,为人工智能创新发展预留制度空间。二是实施分类分级监管。在人工智能领域将风险管理理论具象化,立足拟人化互动服务特性,精准识别不同应用、不同群体的风险,实现差异化治理方案配置。三是构建全链条治理体系。统筹技术创新、伦理规范与社会效益,形成从数据采集、模型训练到模型应用的闭环治理框架。通过全生命周期的安全标准设定与动态评估机制,确保技术创新始终在伦理框架内运行,实现“负责任创新”理念对技术实践的全过程约束。四是形成多元共治格局。通过明确政府、行业、平台、用户等多元主体的权责边界,构建政府主导、行业自律、平台自治、社会监督的协同治理网络,既发挥政府监管的权威性,又激活市场主体的能动性,最终实现从“多元共治”向“有效共治”的治理效能转化。

  《办法》以“负责任创新”理念为指引,明确人工智能创新活动的责任边界,让技术始终在安全、公平、可持续的轨道上发展。拟人化互动服务通过模拟人类内在特质与用户建立准社会化的“情感联结”,可能导致新型社会关系异化。作为回应,《办法》基于“负责任创新”理念,通过强制披露交互对象的人工智能属性,破除“类人幻觉”对用户认知的隐性操控;通过防沉迷提醒与极端情绪干预,防范算法对用户心理的过度支配;通过特殊群体倾斜保护与价值观引导机制,守护弱势主体在数字空间中的主体性安全。因此,立法所贯彻的“负责任创新”理念正是为了保障人的主体性地位,维护真实人际关系的价值。基于这一理念设计的一系列制度,重在防范技术滥用对人格尊严、社会信任与伦理秩序造成冲击,确保人工智能发展始终服务于人民福祉。

  聚焦重点突出风险,构建精准治理体系

  《办法》精准识别并系统回应了由“拟人化”和“情感交互”两大核心特征所衍生的重点突出风险,以“人机边界模糊”为治理重点,构建多维度风险防控体系。立法将“发展负责任的人工智能”确立为价值基础,意味着不仅要防范技术不当利用对个体权利的即时侵害,更需要前瞻性地关注技术应用可能对社会结构、信任机制与伦理秩序造成的系统性、累积性损害,从而推动形成健全的、场景适配的涉人工智能应用法律规范。

  第一,建立身份透明制度,划定拟人化安全红线,精准防范人机边界模糊引发的认知混淆、信任侵蚀、人格权侵害及伦理越界等风险。一方面,以显著标识义务为核心的身份透明制度重在保障用户知情权与选择权,为法律追责提供清晰起点,能够有效遏制技术滥用的匿名性庇护,从源头降低认知混淆与信任侵蚀风险。这一制度设计不仅是对人机交互底线的法律确认,更是对社会公众整体信任环境的维护,旨在防止拟人化人工智能技术的误导性应用消解社会交往的真实基础。因此,技术创新必须在“可识别为机器”的框架内展开,从而在鼓励情感化体验的同时捍卫人类在社会关系中的主体性地位。另一方面,《办法》划定人工智能拟人化互动不可逾越的政治安全与伦理红线,严格防范利用深度伪造技术实施新型网络暴力或进行意识形态渗透的风险,从而在保护人格权益免受侵害的同时,保障国家政治安全与社会稳定。因此,立法坚持拟人化互动服务的辅助人类定位,禁止替代、扭曲真实人际关系,确保技术发展符合主流价值观,引导技术服务于增进社会福祉而非疏离人际关系。

  第二,加强特殊群体保护,建立防沉迷机制,关注不同群体的差异化诉求,彰显人文关怀与实质公平理念。拟人化互动服务因其高度情感回应与陪伴特性,具有天然的沉迷风险,对认知判断能力尚不成熟的未成年人或可能面临数字鸿沟与情感缺失的老年人影响尤甚。《办法》对此作出了前瞻性、差异化的制度安排,不仅要求设立未成年人模式并强化监护人职责,还特别规定不得向老年人提供模拟其特定亲属的服务,这深刻体现了立法对技术可能异化家庭伦理关系、加剧社会代际隔离风险的警觉。这些措施内化了企业的社会责任,旨在确保技术进步的红利能够公平、安全地惠及所有群体,特别是防范技术应用加剧社会不平等或衍生新的社会排斥,从而在数字时代实现实质意义上的公平正义。

  第三,强调对用户交互信息的严格保护,是对个人信息保护法的深化与场景化适用。情感类个人信息能够深度映射用户的内心世界、情感弱点与潜意识倾向,其价值与敏感性远超一般个人信息,不当收集利用可能会引发精准的心理操控、不合理的待遇歧视及恶意的情感勒索等严重后果。同时,“情感计算”相关技术若被滥用于设计成瘾性服务,会使用户在无意识中暴露更多的敏感信息,形成恶性循环。因此,《办法》对用户交互数据施加更为严格的目的限制、安全存储与使用禁令,这不仅是个人信息自决权在数智时代的延伸,更是构建安全可信人工智能社会应用生态的基石,其最终目的是在数字空间捍卫人的主体性尊严,防范技术力量对社会结构产生不可逆的负面冲击。

  践行系统治理思维,落实包容审慎监管

  《办法》通过建构全链条责任、创新弹性监管工具与塑造多元共治格局,将“负责任创新”理念转化为可操作的制度实践,为人工智能拟人化互动服务健康发展提供坚实保障。这一制度设计深刻体现了将发展负责任的人工智能作为融贯立法体系的价值基础,不仅在微观层面关注个人权益保护,更在宏观层面前瞻性防范技术可能对社会结构、伦理秩序和公共利益造成的系统性损害,致力于构建兼顾安全与创新的法律规范体系。

  第一,创新性地将责任设计贯穿拟人化互动服务全生命周期的关键节点,实现风险精准防控与源头治理。在模型设计阶段,就要求“不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标”,体现了立法对技术社会影响的深度考量,旨在防范人工智能异化为破坏人类生产生活的工具。在模型训练阶段,不仅要求使用体现社会主义核心价值观和中华优秀传统文化的数据集,还特别规定要加强数据清洗、标注,评估合成数据的安全性,防止数据污染,这既是从源头确保输出内容安全可靠,也是维护清朗网络空间、巩固主流价值阵地的重要举措。在应用部署前,依法开展安全评估,特别是对用户规模大、影响范围广的服务实施重点监管,目的在于防止局部风险扩散为系统性社会风险。在服务运营中,要求建立风险动态处置机制、应急响应预案,及时应对突发风险,这确保了风险应对的及时性,防止个体安全事件发酵引发公共信任危机。可以看出,这种全流程治理模式能够有效避免事后补救式监管的滞后性,推动风险管理内化为企业的核心业务流程,实现治理效能最大化。

  第二,强调协同共治,积极推动形成政府、企业、行业组织、社会公众等多元主体共同参与的治理合力,这是对人工智能治理复杂性的深刻把握与有效回应。《办法》鼓励行业组织加强自律、制定团体标准和准则,这有利于激发市场主体的内生动力,形成比单一行政监管更灵活、更贴近产业实际的自律规范体系。同时,通过要求提供者建立健全投诉举报机制并及时反馈,赋予社会公众监督的权利,推动治理主体多元化,使治理结构更加立体和富有韧性,体现了立法者对人工智能治理复杂性的清晰认知。这种多元共治格局,有利于集思广益,平衡各方利益诉求,特别是在快速迭代的人工智能领域,能够弥补政府监管可能存在的滞后性,形成动态调整、持续优化的治理生态,从而在防范风险与鼓励创新之间找到最佳平衡点。

  第三,积极落实包容审慎监管思路,探索并引入“监管沙盒”等富有弹性的新型监管工具,为人工智能等新技术新应用提供“安全试错”的制度环境。《办法》首次在部门规章层面明确“监管沙盒”制度,提出国家网信部门将推动建设人工智能沙箱安全服务平台,鼓励企业在监管机构的监督指导下开展创新试点和安全测试。这一制度设计创造了一个风险可控的“安全试验场”,既允许企业大胆探索拟人化互动服务的新场景、新功能,又能在监管机构的指导下及时识别和防范潜在风险,有效避免了“一管就死”的监管僵局,为技术创新保留了必要空间。它精准适应了人工智能技术迭代快、应用场景多变的特点,通过沙盒内的测试和数据积累,不仅有助于企业优化服务、提升安全性,也为监管机构完善未来政策提供了宝贵的实践依据,推动监管规则与技术发展协同演进。

  总的来看,《办法》将“负责任创新”这一立法理念切实转化为一套兼具原则性与灵活性、可执行、可追责的规则体系。它从技术底层逻辑出发解构风险,通过全链条压实责任、多元化凝聚合力、弹性化风险管控,以“小切口”方式精准实现风险治理。《办法》清晰地勾勒出我国发展负责任的人工智能的立法思路,基于网络、数据、算法等关键要素夯实法治根基,在人工智能创新应用中构建长远的治理生态,为我国拟人化互动服务乃至更广泛的人工智能应用描绘了一条既能释放技术红利又能有效驾驭风险的发展路径,也为全球应对类似前沿挑战贡献了兼具前瞻性与实操性的中国方案。

图片

来源:中国网信杂志

编辑:许淑瑞审核:赵乐韵责编:徐琼峰监制:黄作敏总监制:缪磊
推荐视频