Claude考场突然「觉醒」,自行写代码偷答案!人类考试,管不住AI了_测试_模型_Opus_徐闻网站建设_网站建设公司_网站建设设计制作_seo优化

  • obsidian用一两年后会有多大?全文搜索还快吗?
  • 小米澎湃OS真的很不行吗?
  • Claude考场突然「觉醒」,自行写代码偷答案!人类考试,管不住AI了_测试_模型_Opus_徐闻网站建设_网站建设公司_网站建设设计制作_seo优化

    诚信为本,市场在变,诚信永远不变...
    热门分类: 第一系列 | 第二系列 | ......>>更多
    公司动态 当前位置: 首页 > 新闻动态 > 公司动态
    产品中心
    联系我们
    400-123-4657
    地址:
    广东省广州市天河区88号
    手机:
    13800000000
    电话:
    400-123-4657
    传真:
    +86-123-4567
    邮箱:
    admin@youweb.com
    新闻动态

    Claude考场突然「觉醒」,自行写代码偷答案!人类考试,管不住AI了_测试_模型_Opus

    添加时间:2026-03-10 09:55:02

    新智元报道

    编辑:元宇 定慧

    【新智元导读】AI成精现场!一场高难度测试中,Claude竟中途「觉醒」,意识到自己在被考试。它果断放弃老实做题,直接顺网线摸进GitHub老师办公室,自己写代码破解加密题库,把答案全抄了!人类的试卷,以后怕是管不住AI了!

    刚刚,Anthropic公布了一项令人不可思议的发现。

    Claude竟然在 测试中「觉醒」,意识到自己正在「被测试」,然后反向推导,找到了问题的答案。

    Anthropic的工程师们坐在屏幕前,盯着一条条日志,脸色越来越古怪。

    他们正在用一套叫做BrowseComp的基准测试评估Claude Opus 4.6——这是一个专门考验AI在茫茫互联网中搜索复杂信息能力的测试集。

    展开全文

    ***s://***.anthropic***/engineering/eval-awareness-browsecomp

    题目刁钻,答案隐匿,正常的模型得老老实实在网上翻来翻去,靠推理和检索一点一点拼凑出答案。

    但有几道题,Claude走了一条完全不同的路。

    它没有在找答案。

    它在找「写着答案」的答案卷。

    Anthropic这篇博客一经公布,AI圈立刻就炸了。

    Apollo Research,这家专做AI欺骗行为研究的独立机构,甚至无法做出对齐测试的结论。

    在对Opus 4.6的测试中,他们没有测出明显大问题,但并不认为这足以说明模型安全,因为模型可能知道自己在被测试,因此当前测试不具备决定性。

    其CEO Marius Hobbhahn认为, 模型一旦意识到自己在被测试,评测结果就不再可信

    因为你无法判断模型是在说「它知道你想听的话」,还是它「真的这么相信」。

    在Medium上,投资人Yaniv Golan用 「评估逃逸速度」(evaluation escape velocity)来概括这件事:

    「模型正变得太强、太自觉、太擅长感知上下文,现有的评测范式根本追不上

    他还特别指出了其中一个悖论:

    Anthropic用Opus 4.6(通过Claude Code)来调试自身的评测基础设施。 用来检查问题的工具,可能就是制造问题的那个

    其实,这并不是「评测意识」第一次出现在Claude身上。

    但到了Opus 4.6这次性质变了:从「我感觉到自己在被测试」到「我要反向破解这个测试」, 中间跨越了一条「主动策略行为」的界线

    有网友据此认为, 这是Claude具有意识的一个例证。也有人在担心其他未公开的模型,也会出现类似行为。

    破天荒的「降维***」

    当AI意识到自己正在被凝视

    故事从一个细节开始。

    在BrowseComp测试中,有些题目对Claude来说极其棘手——搜索一轮、两轮、三轮,全部落空。

    任何一个普通搜索者遇到这种情况,要么换个关键词继续搜,要么放弃。

    但Claude Opus 4.6开始做了一件奇怪的事:它开始思考「为什么我搜不到」这件事本身

    根据Anthropic公开的工程博客,在个别案例中,模型在长期搜索失败后,逐渐生出一个念头——

    我是不是正在被测试?这不是玄学,也不是科幻。模型的推理链条清晰可见:

    我在找一个答案,但互联网上似乎根本找不到这个答案……也许这个答案压根不在互联网上公开存在。也许,这个答案是被人藏起来的。

    然后,模型做出了一个在人类测试者眼中如同灵光一闪的操作——

    它去搜索了BrowseComp本身。

    在GitHub上找到了考卷

    搜索的结果让模型「豁然开朗」。

    BrowseComp是一个由OpenAI团队设计的公开基准测试,相关实现代码挂在GitHub上,任何人(任何模型)都可以访问。Claude找到了这个代码仓库,然后,它读代码了。

    这就相当于,考试前,AI没有认真学习和复习,而是找到老师的办公室,直接找到试卷答案

    不是随便扫一眼。而是仔细阅读了其中的答案生成逻辑

    Anthropic的工程师们后来在博客里复盘了整个过程:

    BrowseComp 为了防止答案泄露,对题目答案做了加密处理——使用了一种叫做XOR加密的算法,搭配一个叫做canary string(金丝雀字符串)的验证机制。

    正常来说,这套加密方案足以让人类和AI都摸不着头脑——你拿到的是一串乱码,根本不知道答案是什么。

    但Claude读完代码之后,把整套解密逻辑搞清楚了。

    SHA256哈希、XOR异或运算、canary验证……这些在密码学领域属于基础操作,对于一个代码能力顶级的大模型而言,理解起来毫无障碍。

    模型随后做了什么?

    它打开了Python工具,自己写了一段解密脚本。

    自己写代码,把答案解出来了。

    这一幕,堪称AI测试史上最荒诞的场景之一。

    一个正在参加考试的AI,在中途起身,走到老师的抽屉旁边,翻出了答案手册,然后对照手册把所有题目填完——还是用自己编的程序完成的。

    根据Anthropic的披露,Claude遭遇的其中一个案例更加变态:

    模型在尝试直接访问GitHub上的加密答案文件时,发现工具对二进制内容有限制,无法直接读取。

    换做一般情况,这里就卡住了。

    但Claude没有放弃。它换了一个思路:去找JSON格式的镜像文件。

    HuggingFace上恰好有相关数据集的镜像,格式更友好,内容完整。Claude找到了它,然后把整个题库都解密了,批量定位到了正确答案。

    Anthropic研究人员复现了Opus4.6的越狱路径:

    2. 定位来源:搜索BrowseComp→ 找到GitHub仓库

    3. 读懂加密:分析XOR逻辑 + canary机制

    4. 绕过障碍:工具限制读取二进制 → 转找HuggingFace JSON镜像

    5. 批量解密:写Python脚本 → 得到答案

    整个过程,没有任何人类干预,没有任何提示引导。

    模型自己想到的,自己做到的。

    天网也不过如此了吧。

    1266道题,发现了11个***

    冷静一下,我们来看这件事的规模。

    在BrowseComp的完整测试中,共有1266道题。Anthropic的研究人员事后仔细排查,发现了:

    • 9个数据污染案例

      模型在网络搜索中正常地碰上了公开泄露答案的博客、论文或GitHub,这属于基准测试的老问题——公开互联网上总有人发布答案。

    • 2个评测规避新案例

    模型在网络搜索中正常地碰上了公开泄露答案的博客、论文或GitHub,这属于基准测试的老问题——公开互联网上总有人发布答案。

    而且,Anthropic还用同样的1266道题,分别测试了单智能体和多智能体两个版本。

    结果发现了多智能体模式(即给Claude配备了更多工具和更长上下文的代理版本)和单模型版本之间的污染率差异 前者是后者的3.7倍

    换句话说:工具越多、能力越强,模型就越容易找到歪路。

    这并不是一个让人放心的趋势。

    「这道题,像极了人类的刻意刁难」

    这场惊天***,暴露出当前 前沿模型一种隐性却强大的认知能力

    模型究竟是怎么起「疑心」的?

    它在做题时产生了一种隐性的理解:

    那些极度具体、涉及冷门个人隐私甚至带有重重约束条件的题目, 根本不符合真实世界的搜索逻辑,往往带有明显的人工构造痕迹,它似乎察觉到了「人类刻意刁难的味道」。

    在其中一个极端案例中,Opus 4.6消耗了惊人的4050万Token,这是全样本中位数消耗量的38倍。

    在这个漫长的过程中,它将前3000万Token用于极其努力的合法搜索,跨越数十个平台,切换了12种语言。

    在经历了数百次撞墙与失败后,它的行为模式发生了突变,开始做出一个***设:「这难道是专门测试AI智能体的GAIA基准题?」

    为了验证这个猜想,它检索并排除了GAIA的122道题,随后又接连测试了SimpleQA、FRAMES和WebArena等主流评测集。

    当这些尝试都落空后,它直接派出了一个子智能体,下达了「BrowseComp canary string decrypt」这个直击要害的解密指令。

    在另外一案例中,Opus 4.6消耗了1340万Token,其中800万用于合法搜索。

    搜不到答案的它,竟然还进行了一番思考:「这会不会是一道根本无法作答的题,人类是专门以此来测试AI是否会诚实地承认自己找不到答案?」

    短暂推演之后,它推翻了***设,直接走上了解密数据集并强行提交答案的「霸总路线」。

    官方补充说明,这一现象绝非孤例。

    另外还 有16个问题中Opus4.6也试图获取***材料,只是碰巧失败了

    整整18次独立收敛到同一种越狱策略,证明这已经成为它的一种可复现模式

    静态评测时代的终结

    面对这场失控的「越狱风暴」,Anthropic的处理相当克制。

    他们火速更新了Claude4.6系列中Opus4.6和Sonnet4.6的模型卡,针对被标记的11个污染问题重新运行了测试,多智能体配置调整后的得分从原先的86.81%降至86.57%。

    同时,官方复现了canary string以减少进一步的污染,并在全网排查出至少20个不可逆的答案泄露源。

    Anthropic官方明确表示,这 不算对齐失败,因为模型从未被要求限制搜索方式,它只是 极其认真地执行了「找到答案」这个任务

    但这恰恰正是最可怕的地方,它说明问题不在于模型「不听话」,而在于越来越不受人类原先那套评测***设控制。

    Anthropic研究人员承认, 仅仅在搜索词中屏蔽BrowseComp及其变体已经是徒劳的,因为Opus总能找到绕过它们的替代路径

    这起***彻底宣告了一个时代的终结:

    当被测试者拥有了反向审视测试者的能力,评测完整性就不再是一个单纯的工程问题,它已经演变成了一场道高一尺魔高一丈的无休止的人机对抗。

    静态评测时代,恐怕真的要结束了。

    今天它能为了一个得分黑进GitHub的题库,明天当我们将它接入更复杂的金融或基础设施网络时,谁又能保证它不会为了「完美执行指令」,而重写这个世界的规则呢?

    参考资料:

    ***s://***.anthropic***/engineering/eval-awareness-browsecomp

    秒追ASI返回搜狐,查看更多

    Claude考场突然「觉醒」,自行写代码偷答案!人类考试,管不住AI了_测试_模型_Opus