insideout
2.8K posts


彭博社爆料的 Anthropic这次的事可能是今年AI安全圈最讽刺的笑话。
他们号称“太危险绝对不能公开发布”的顶级网络安全模型Mythos,
能批量发现零日漏洞,能入侵几乎所有系统。
只敢给苹果亚马逊思科这种级别的公司做封闭测试。
结果发布当天就被一个Discord小群偷偷摸进去了,安安静静用了整整两周。
没有啥惊天动地的黑客技术,就是三步。
第一步,从之前Mercor数据泄露的4TB文件里,翻出了Anthropic的API命名规则,
第二步,对着规则猜了几个可能的endpoint地址,
第三步,用群里一个第三方评估承包商的合法凭证,直接登进去了。
最绝的是这群人拿到了全世界最危险的网络武器之后,啥都没干,
就用它建了几个简单的网站,故意低调到连Anthropic的监控都没触发😂😂😂
直到他们把截图发给彭博社,全世界才知道这件事。
很多人说这是AI安全的重大事故,其实不然,我觉得被攻破的不是Mythos这个模型,是Anthropic整个外围的信任链。
模型能找遍全世界的零日漏洞,却防不住自己人把凭证随便分享,
也防不住供应链厂商把内部部署规则泄露出去,
甚至防不住别人猜一下自己的URL地址😆😆😆
这才是最扎心的地方,我们天天担心超级智能会失控毁灭世界,结果现在最前沿的AI实验室连最基础的运营安全都做不好。
就好比你造了一颗原子弹,把所有精力都花在防止它自己爆炸上,结果大门忘了锁,
被路过的小孩推门进来,拿原子弹炸了个鱼😂😂😂
更反直觉的是大家都以为拿到这个模型的人会去搞破坏,
结果他们选择了最无害的用法,
这说明至少到今天为止,最危险的不是AI本身,是管理AI的那些人。
Anthropic一直以安全第一自居,天天讲负责任的规模化,讲可控发布,
结果这次出事的恰恰就是他们最引以为傲的可控发布机制。
那么问题来了, AI的安全边界到底在哪呢?
在模型的权重里还是在人和系统的每一个缝隙里?欢迎交流呀!

Bloomberg@business
Anthropic's Mythos has been accessed by a small group of unauthorized users, raising questions about control of the AI model bloomberg.com/news/articles/…
中文





























