未成年人AI情感依赖调查 我前几天也在网上买了一个宇航员造型的AI玩具,它接入了豆包 deepseek等主流大模型,你可以和它交流,还有商家把它们做成宠物造型的,非常受家长和孩子的欢迎。
但是,问题也来了,有些未成年人产生了AI情感依赖,有5岁幼儿把零食枕头留给AI、把AI当"知心闺蜜",有高中生因社交圈只剩AI而休学。但问题是:现行法律对此几乎空白。
《未成年人保护法》第74条虽要求网络产品设置「时间管理」功能,但针对的是网络游戏,AI情感陪伴产品不在列。《个人信息保护法》也只关注数据收集,不涉及心理依赖风险。
法律滞后于技术,结果是:厂商可以毫无约束地向未成年人推销「24小时在线闺蜜」,既无需防沉迷提示,也无需家长知情同意。
希望明年有代表可以提案对AI立法:❶ 强制AI陪伴产品设置青少年模式,限制每日交互时长;❷ 建立「情感依赖风险」评估与警示制度;❸ 涉及未成年人的深度交互,须家长明确授权。