“AI伙伴”应在规范中成长

□佘惠敏

2026年01月07日 字数:558
  日前,国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(简称“《办法》”),首次针对“AI陪伴”类服务提出系统性规范,并向社会公开征求意见。细看《办法》条款,四大亮点直指现实痛点。
  针对认知混淆风险,《办法》将身份透明作为核心前提,要求提供者显著提示用户正在与人工智能而非自然人进行交互,在首次使用、重新登录等关键节点动态提醒,从源头破解认知混淆问题。
  针对心理健康隐患,《办法》要求提供者应当建立应急响应机制,对自杀自残等极端情境实行人工接管并联络用户监护人、紧急联系人,设置2小时强制休息弹窗等防沉迷措施。
  针对隐私数据安全,《办法》要求提供者应当采取数据加密、安全审计、访问控制等措施保护用户交互数据安全,不得向第三方提供用户交互数据,赋予用户数据删除权。
  针对特殊群体保护,《办法》专门设立了对未成年人和老年人用户的条款,明确未成年人模式的使用权限与监护人管控功能,禁止提供模拟老年人用户亲属、特定关系人的服务,要求引导老年人设置服务紧急联系人。
  可以看出,《办法》的核心,是技术有责。人工智能不是人,但一旦介入人的情感、决策及生命安全,就必须承担相应责任。算法设计要可审计,内容输出要可追溯,极端场景要有人兜底,将软伦理转化为硬杠杠,把事后道歉前置为事前预防。唯有如此,才能避免AI反噬人类。