当AI从云端落入凡间,转化为手机助手、虚拟恋人或工业机器人时,风险形态已从网络空间逐渐转向了现实世界。2025年最令人警惕的莫过于端侧智能体(Agent)所带来的隐私终极挑战:以“豆包手机助手”为代表的Agent为了实现跨应用操作,获取安卓底层的读屏录屏与模拟点击权限,这实质上让AI拥有了“上帝之眼”与“上帝之手”,不仅打破了移动互联网APP间的数据边界,更让安全的责任归属陷入黑色地带,我们在用敏感脆弱的隐私换取一点便利,而全新的数据契约仍处于真空期。与此同时,AI的加速应用正在重塑人机交互的边界。当 AI 从单纯的生产力工具延展为提供心理慰藉的“情感伴侣”,其风险形态也随之演变:从传统的单次内容输出合规,转向了因长期、拟人化交互而产生的“情感依赖”挑战。针对这一风险,各方正探索多样化的分类监管手段,对未成年人、老年人等脆弱群体提供更多保护的同时,也让通用AI在发展初期不至于背负过重的合规负担。而在应对深伪(Deepfake)的战线上,AI标识技术正陷入“矛与盾”的循环困局,水印标识虽是全球通用的“解药”,却因开源环境下的易移除性与易伪造性而难以根除造假,呈现出“防君子不防小人”的局限。对此,务实的策略是不盲目追求全量标识,而是聚焦于可能引发社会混淆的高风险场景进行精准治理。应用标识技术手段为治理赋能外,在AI创作无处不在的未来,加强信息素养教育,引导公众建立对信息媒介的客观认知或是更为基础性的工作。