币界网报道:
如果 Anthropico 不肯向你展示其最危险的 AI 的内部构造,GitHub 上总会有人猜到。
一位名叫 Kye Gomez 的开发者发布了OpenMythos这是一个开源项目,旨在重建他认为的 Claude Mythos 的内部结构。该项目发布几周后就在 GitHub 上获得了超过 10,000 个星标,并附带一个详尽的“readme”文件,其中包含大量的公式、引用以及一份礼貌的免责声明,表明该项目与 Anthropic 公司没有任何关系。
这是推测。但这是结构化的推测,用代码表达出来。
这里快速回顾一下Mythos是什么:Mythos 于三月下旬泄露到公众视野。当时,Anthropic公司意外发布了一些草稿材料,将Mythos描述为该公司迄今为止功能最强大的产品——比Opus高一个档次。而后续产品Mythos Preview在网络安全方面表现出色,以至于无法正式发布。
据 Anthropic 公司称,Mythos 在 Mozilla 的测试中发现了 Firefox 的 271 个漏洞。它成为首个完成 32 步企业网络攻击模拟的 AI 模型。Anthropic 将其纳入了“玻璃之翼计划”(Project Glasswing),这是一个由约 40 个合作伙伴组成的经过审查的联盟,其中包括微软、苹果、亚马逊和美国国家安全局 (NSA)。
公众根本没有机会接触到它。所以戈麦斯试图弄清楚它的工作原理。
OpenMythos 的核心推测是 Mythos 是一个循环深度 Transformer 模型(也称为循环 Transformer)。标准模型堆叠数百个独特的层。循环模型则使用较小的堆叠层,并在每次前向传播过程中多次运行自身。
换句话说,就是同样的权重经过更多次迭代。在任何代币发行之前,在持续的潜在空间中进行更深层次的思考。
该代码库认为,这可以解释 Mythos 的两个最奇特的特性:它能够解决其他模型无法解决的全新问题,但它的原始记忆能力却不均衡。这就是循环架构的特征——组合优先于存储。
OpenMythos 引用了 Parcae,这是一篇由加州大学圣地亚哥分校和 Together AI 于 2026 年 4 月发表的论文,它解决了循环模型中长期存在的稳定性问题——一个拥有 7.7 亿参数的 Parcae 模型在质量上可以与一个拥有 13 亿参数的固定深度 Transformer 模型相媲美,并且循环次数的扩展规律是可预测的。该代码库还借鉴了 DeepSeek 的多潜在注意力机制来压缩内存,并采用了混合专家模型来处理跨领域的广度问题。
它没有负重,所以基本上它是一种没有执行者的技术。
OpenMythos目前还处于理论阶段。代码定义了参数量从10亿到1万亿不等的模型变体,但你需要自行训练它们——README文件指向一个在FineWeb-Edu数据集上训练30亿参数的脚本,以及一个经过Chinchilla调整的300亿token目标,这在H100超级计算机上的计算成本高达数十万美元。目前还没有人真正实现过。
那么,这为什么重要呢?
因为这是一个月内第二次有人试图破坏 Mythos 的安全。第一次是 Vidoc Security 的一项研究,该研究……复制品Mythos 利用开源代理程序,通过 GPT-5.4 和 Claude Opus 4.6 发现了几个最令人担忧的漏洞。无需 Glasswing 访问权限,每次扫描费用不到 30 美元。换个角度看,结论相同:Mythos 的安全护城河可能比其宣传的要薄。
OpenMythos 和 Vidoc 的复现工作内容不同。Vidoc 使用现有模型复现了 Mythos 的输出结果——即漏洞发现本身。OpenMythos 则试图复现其架构——即产生这些输出结果的实际机器。前者表明你不需要 Mythos 就能找到 Mythos 发现的漏洞。后者则表明,最终你或许能够自己构建类似 Mythos 的系统。
Anthropic几乎肯定不会公开分享Gomez的架构猜测,而OpenMythos中的一些设计选择也明显带有保留态度——README文件特意使用模糊的措辞,让用户明白这只是一种方法。它反复使用“可能”、“怀疑”和“几乎肯定”等词语。真正的Mythos可能根本不是一个循环转换器。或者,它可能包含Gomez尚未逆向工程的细节。
OpenMythos 表明,研究文献中已经包含了大部分所需内容。循环 Transformer 模型、混合专家模型、多潜在注意力机制、自适应计算时间、Parcae 的稳定性修复——这些都不是专有技术。与其说这是一个专有技术,不如说它是一个公开的资源库,列出了构建 Mythos 类模型所需的所有知识。
该代码库采用 MIT 许可证,目前已有 2700 个 fork。训练脚本就在那里,等着有 GPU 集群和相关论文的人来验证。