点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

如果有人告诉你,每天用的AI导航、刷的短视频推荐,甚至医院里辅助诊断的AI系统,都可能会被人“悄悄下毒”,你信吗?
这可不是危言耸听。它叫AI“投毒”,已经形成了一条隐蔽产业链。
大家都知道,AI模型是靠海量数据“喂”出来的,那如果有人在投喂阶段,偷偷往数据里掺“沙子”呢?这就叫大数据投毒——通过向AI大模型训练数据中注入伪装成正常样本的恶意数据,实现削弱模型性能、降低准确性的攻击方法。最经典的案例就是2016年微软AI聊天机器人Tay,上线不到24小时,就因被投喂大量歧视性内容快速“学坏”,被迫紧急下线。
还有更隐蔽的——大模型投毒。攻击者不动数据,直接在模型里埋下“暗门”,平时表现正常,一旦遇到特定触发信号,就会立刻输出预设虚假信息,还能操控榜单、误导专业认知。更让人细思极恐的是,随着AI深度融入医疗、金融等关键领域,一旦核心模型被“投毒”,将会对整个AI应用构成直接威胁。
当前,AI“投毒”已经形成了一条隐蔽的黑灰产业链,不仅扰乱商业秩序,影响信息传播,更危害着国家安全。
发展AI必须坚持产业出题、科技答题,在大胆创新的同时,牢牢守住安全底线。好消息是,中国已经在行动——从《生成式人工智能服务管理暂行办法》等法律法规的出台,到《人工智能安全治理框架》《推动人工智能安全可靠可控发展行业倡议》等的发布,中国持续在法治轨道上加强人工智能治理,推动构建以人为本、智能向善的治理框架,实现了人工智能总体健康有序发展。
科技向善,安全为先。中国科技欣先说,我们下期见!
监制:战 钊
策划:肖春芳
文案|AI制作:肖春芳 林佳欣 傅一诺(实习)
出品:光明网科普事业部
