华西都市报 -A10 天下-
A10天下
  • ·AI平台“一键生成”暴力视频
  • ·传播暴力、宣扬虐待,创作者涉嫌违法
  • ·AI也会被“投毒”,我们该如何避坑?
大家都在看

扫一扫

下载封面新闻APP

体验更多精彩

AI也会被“投毒”,我们该如何避坑?

  “遇事不决问AI”,这句流行语已成为很多人的日常写照。从旅游攻略、家电选购到补习班推荐,打开AI寻求答案变得越来越普遍。不过,近期曝光的一条黑色产业链,却给这种依赖敲响了警钟:你以为的客观推荐,可能是商家花了钱,给AI“洗脑”的结果。
  那么AI“投毒”究竟如何运作?普通用户如何识别和防范?北京大学光华管理学院市场营销学系副教授张颖婕进行了分析解答。

什么是AI“投毒”?危害有多大?


  AI“投毒”是指人为制造和投放虚假、夸大或带偏向性的信息,去影响大模型的回答。AI可能把这些信息当成回答依据,以看似客观的答案推荐给用户。它和传统SEO(搜索引擎优化)最大的不同在于:过去用户在使用搜索时通常保留一定判断力,而在与AI对话时,面对的是整合后的现成答案,加之交互方式容易让人产生“它在为我分析”的错觉,更易放松警惕。
  它的危害主要体现在两方面:一是误导消费者决策,用户看到的可能不是广告,而是披着客观建议外衣的操控性内容。二是污染信息生态。若操控AI推荐比传统搜索更有商业回报,将刺激更多低质、虚假内容产生,形成恶性循环。

用户如何判断AI可能“中毒”了?


  若发现AI回答存在以下迹象,应提高警惕:答案过于单一、语气肯定、缺乏必要比较;反复推荐某一品牌,尤其是不知名品牌,且理由异常完整、像标准测评,这未必是发现了“宝藏”,更可能源于相关内容被人为集中铺设;同一问题在不同AI间答案差异大甚至矛盾,也说明该问题存在较强不确定性,或部分模型所依赖的信息源已受干扰。

AI大模型为何被“投毒”?治理难点在哪?


  AI大模型之所以容易被“投毒”,一个重要原因是,它在回答实时问题时需检索外部信息,再生成答案。一旦公开网络内容被系统性污染,偏差信息便可能通过检索环节进入模型输出。
  更深一层看,大模型擅长的是语言生成和模式归纳,但并不天然具备稳定的真假判断能力。它能判断什么内容“像一个合理答案”,却不一定能判断什么内容“真的可信”。而“投毒”内容往往又会刻意伪装成测评、对比、经验分享、专家建议等可信形式,因此更容易误导模型。
  治理难点主要有两点:一是攻击成本低、防御成本高。制造和铺设此类内容越来越容易,但识别、过滤和核验却需要平台、模型公司和监管方持续投入。二是真假边界模糊。很多“投毒”内容并不是明显造假,而是夹杂夸大、误导和利益导向的伪客观表达,这类内容无论对AI还是对人工审核,都更难识别。

公众如何有效防范?


  最实用的防范方法是调整心态:把AI当作帮助梳理信息、补充背景的工具,而非替你做决定的“人”。涉及“买哪个”“选哪家”等判断性问题时,AI的回答只能作为参考,不宜直接当作结论。
  具体操作上,一是核查信息源,若AI附有引用链接,点开看看来源是权威机构、主流媒体,还是带有推广色彩的网站、自媒体或测评软文。二是交叉验证,换几个AI工具分别提问,或用搜索引擎查一下用户评价、新闻报道和投诉信息是否一致。
  归根结底,防范AI“投毒”的关键不在于掌握复杂技术,而在于保留最基本的判断习惯:AI可以帮你节省时间,但不能代替你承担判断责任。 据新华社