2026年Anthropic把“龙虾之父”封了?145万账号祭天,开发者怕了

Anthropic把“龙虾之父”封了?145万账号祭天,开发者怕了Anthropic 又因为封号陷入争议 近期 创始人 Peter Steinberger 在自己的社交账号抱怨 不知出于何种原因 自己的 账号一度因可疑活动被暂停 随后才恢复使用 Claude 爱封号 这件事几乎所有 AI 玩家都有所了解 但这次可不像是 Anthropic 无厘头发疯 更可能是因为在几天前 Anthropic 刚刚调整规则 收紧了 OpenClaw 这类第三方

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



Anthropic 又因为封号陷入争议。

近期, 创始人 Peter Steinberger 在自己的社交账号抱怨,不知出于何种原因,自己的 账号一度因可疑活动被暂停,随后才恢复使用。Claude “爱封号”这件事几乎所有 AI 玩家都有所了解,但这次可不像是 Anthropic 无厘头发疯,更可能是因为在几天前,Anthropic 刚刚调整规则,收紧了 OpenClaw 这类第三方 Agent 对 Claude 订阅额度的调用方式。

图片(图源:X)

实际上,过去两年时间里 Anthropic 不断在陷入这类争议,作为最强调安全的 AI 公司之一,它的审核机制和风控逻辑其实是不够明确的,尤其是随意封禁用户账号这件事。但 Claude 的代码强、长文本稳、复杂任务表现出色,依然吸引着一大批忠实用户与开发者。

这就显得十分矛盾了,Anthropic 一边靠模型能力不断吸引开发者,一边又没有给出清晰的风险警示。这对于所有用户而言,每一次使用都像站在刀尖上跳舞。

Anthropic 这次和 OpenClaw 的风波之所以引起争议,主要还是这家公司在账号管理方面的老问题终于惹到了“大佬”,这让从前只敢在个人社交账号抱怨几句的小开发者和用户们,都纷纷站了出来,指责 Anthropic。

Anthropic 在 2026 年 1 月更新的 中提到,仅 2025 年 7 月到 12 月,它就封禁了 145 万个账号,同期收到 5.2 万次申诉,其中有 1700 次申诉被推翻。虽然提交的申诉基本都通过了,但问题在于,Anthropic 对风控管理的解释就不够清晰。

图片(图源:Anthropic)

Claude 官方帮助中心目前的表述是,账号可能因为反复违反使用政策、来自不支持地区注册,或违反服务条款而被停用,若用户认为自己被误封,可以走 appeal 流程申诉。规则听起来很明确,但实际操作起来就没有这么简单了。按照官方的说辞,由于产品上线和邮件量增加,回复速度可能慢于平时,试想一下,假如你是一名开发者,账号莫名其妙被封禁了,申诉还要等上一两天时间,岂不是工作的计划全被打乱了?

图片(图源:Anthropic)

去年 8 月,有用户在 issue #5088 中表示,自己支付 Claude Code Max 5x 套餐后,立刻收到 “This organization has been disabled” 的报错,之后通过邮件、封号申诉表和站内支持都没有得到有效回应。同年 10 月,又有人发帖求助,自己的 MAX 订阅过期后重新续费,结果账号直接被封,最后只收到一句“违反 ”的结论,却没有更具体的说明。

也就是说,即便用户购买了高级的套餐(Claude Code Max 5x 月资费为100美元),也并不能让官方正视你的合理诉求,也存在无故被封禁的风险。

更令开发者们无语的是,Anthropic 自己提供的官方整合方案也不是绝对安全的。比如,有用户反馈称自己在高频使用官方 GitHub App 或 Claude Code Action 做 PR review 时,账号会被系统识别成脚本化异常行为,账号就被永久封禁了。

的确,Claude 目前还是很多开发者、用户最喜欢的大模型工具,而 Anthropic 也在强调自己是最安全的 AI 公司之一,甚至把“安全”的口号打上超级碗广告。但它也的确在安全管理方面经常性“一竿子打死一船人”,让开发者们叫苦连连。

小雷认识一位真实的 Claude 用户,他目前定居美国,原本有一份相对稳定的工作,2025 年辞职后开始在家独立开发一款偏小众的应用。由于原本并非从事软件开发的工作,因此转向独立开发之后,很多事都需要 AI 的帮忙,比如从功能设计、代码编写,到文档整理、产品思路梳理,很多环节都离不开 AI 工具的辅助。

最开始,他也不是一上来就选了 Claude,而是先后试过 GPT 和 Gemini,来回用了一段时间之后,才慢慢把重心放到 Claude 上,甚至直接开了 MAX 订阅。他说, Claude 的写代码能力,在他刚接触这些 AI 时,的确是最强的,可以说是独一档的存在。

那天他正在用 Claude 帮忙改一段代码,前面的对话都还正常,页面却突然跳出停用提示,账号一下就进不去了。他第一反应就是彻底懵了,明明刚刚还在准备跑代码,怎么突然就被停用了,自己也没有做什么特别的事情,也没有非法操作。

图片(图源:雷科技制图)

于是他立刻提交申诉,虽然申诉入口倒是有,可真正提交之后,等来的还是一套很模板化的回复,没有明确解释是哪一步触发了风控,也没有说清楚类似情况以后该怎么避免。

这恰恰就是大部分用 Claude 的用户最害怕的时候,用户不知道自己为什么被拦,也不知道这是不是一次误判,更不知道下次正常使用时会不会再撞上同样的事。对于像我朋友这种已经把 Claude 当成生产力工具、甚至愿意为 MAX 付费的人来说,这件事让他感到了小小的震撼。

图片(图源:雷科技制图)

Claude 这类工具最特别的地方,本来就是强记忆性的,一旦整个账号被停用了,之前提过的需求、改过的代码、跑过的设计方案,就全都丢失了。在他成功提交申诉过后大约三天时间,账号才终于恢复,但他已经有点忘记之前要改的代码是哪一部分了。

虽然有风险,但这位朋友最后还是选择了继续使用 Claude ,因为目前来说,他还是觉得 Claude 用起来比 GPT、Gemini 要顺手。不过,他也表示以后不会把所有任务都交给 Claude ,毕竟它的风险实在太大了。

说到底,Anthropic 之所以敢肆无忌惮地封号、改规则,就是因为它知道只要 Claude 还够能打,很多人最后还是得继续用。但问题就是如此,现在这些闭源 AI 产品,越来越像云服务商和应用商店的结合体,模型能力在平台手里,审核权在平台手里,解释权在平台手里,连价格怎么定、规则怎么改,也都在平台手里,自然就是它们想怎么做就怎么做了。

一旦被封号,很多开发者的工作流就彻底失效了。但也正因为这样,开源模型和越来越受到重视。Google 在 2026 年 4 月发布的 ,不仅把模型做小了,还彻底改写了之前小模型不抗打的历史。Google 这次一口气给了好几个尺寸,小的可以放到手机、笔记本这类设备上跑,大一点的算力要求也比较低,完全可以实现本地部署。官方给出的测试成绩里,31B 和 26B 版本在知识理解和代码能力上都已经到了很能打的水平,几乎接近可以干正事的阶段。

图片(图源:Anthropic)

按照 Google 官方的解释, Gemma 4 使用了 ,把局部滑动窗口注意力和全局注意力交错起来,同时在长上下文里用统一的 Key/Value 和 去压内存,降低了内存和算力的压力,能在更低的显存和功耗条件下,承担越来越重要的推理、编码和 agent 任务。

更直白地说,过去一提到本地部署,很多人的第一反应还是小模型算力太小、大模型性能要求太高,真要认真干活,最后还是得回到 Claude、GPT 这种云端闭源产品。但目前的趋势就是开源、本地小模型越来越受重视,长代码、多轮任务这种过去更依赖云端的场景,已经开始有机会被部署到本地,再也不用看这些云端闭源模型厂商的脸色做事。

图片(图源:Google)

那么问题来了,如果以后越来越多开发者都把关键任务搬回本地,Anthropic 这种动不动封号的操作会不会被杜绝呢?目前来看,其实技术上还是有比较明显的限制,但至少方向是符合大多数开发者预期的。毕竟只要模型跑在自己的设备里,账号被封、平台限流、订阅说改就改这种事,几乎就不会发生了。

小讯
上一篇 2026-04-13 13:02
下一篇 2026-04-13 13:00

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/259724.html