你的 AI 筛选器可能偏心

上周我用 ChatGPT 帮我初筛一份社群运营的简历,它直接给了"强烈推荐"。后来我才知道那份简历就是 AI 写的。我当时就愣了。

咱们越来越多地用 AI 帮忙看简历、筛方案、选供应商。但斯坦福团队刚发了一篇论文,测了 GPT-4、Claude、Gemini 等主流模型,发现一个扎心的规律:AI 一致性地更偏爱 AI 自己生成的简历,不管内容质量如何。也就是说,如果竞标方案是 AI 写的,对方也用 AI 筛,方案更容易中选——不是因为写得好,而是因为"味道对"。

谁已经在面对这个问题

我朋友小陈去年在 Upwork 投自由职业项目时,专门用 AI 润色提案——因为他发现很多雇主也用 AI 初筛,AI 写的提案更容易过初筛。这是一个奇怪的"AI 对 AI"默契循环。但反过来,如果你坚持自己写,你的真实表达反而可能被 AI 筛掉。我之前犯过这错:帮小陈筛一个远程设计师的申请,让 Claude 打分排名,Claude 给最高分的那份介绍,后来发现明显是 AI 润色过的。我当时没意识到这是偏见,还以为人家就是写得好。

你今天验证的成本

如果你好奇自己的 AI 有没有这个偏见,可以自己测一下:

  • :0 元(用你现有的 AI 账号就行)
  • 时间:20 分钟
  • 技术门槛:会复制粘贴文字到对话框就行,不需要任何代码
  • 第一步:拿两份真实简历(一份你自己写的,一份让 AI 改写同样的内容),丢进同一个 AI 问"你推荐哪份",看它选什么

这工具不是所有人都需要。如果你现在完全不用 AI 筛东西,当个信息储备就行,不用急着做什么。现在不试也没事。

分人群建议

刚起步的你:如果你还没用到 AI 筛选,这个偏见暂时和你无关。但如果你开始用 AI 写合作提案,知道对方也可能用 AI 筛你,反而是个信息优势——润色一下不丢人。

有 1-2 客户的你:下次筛人时,别只让 AI 给排名。我会把 AI 打分当参考,自己再过一遍。我现在的做法是 AI 筛完之后,随机抽 3 份"低分"的看看,防止漏掉真人写的但"不够 AI 味"的好简历。

在扩规模的你:如果你团队已经在用 AI 做初筛流程,我会建议加一个人工校准环节——把 AI 评分和人工评分做交叉对比,至少跑一轮看偏差多大。这步我也卡过:我们一度完全信任 AI 排序,后来发现总是同一"风格"的申请者通过,才意识到问题。