Anthropic威胁OpenCode移除Claude集成引发争议 | 帖子

Anthropic要求开源项目OpenCode移除所有Claude相关功能,包括API集成。背后原因是Claude Code订阅采用“折扣Token”模式,官方不希望用户在第三方工具中使用。这一强硬做法引发用户强烈不满,许多人开始转向ChatGPT。

Anthropic有两款产品:按使用量计费的Claude API,和包月订阅的Claude Code。订阅价格看起来便宜得多,实际上是Anthropic有意补贴,目的是把用户锁定在自家工具里。

OpenCode和OpenClaw这类第三方工具,一直允许用户用订阅账号调用Claude模型。用户觉得这很合理——我付了钱,为什么不能选自己喜欢的工具?但Anthropic明确表示:订阅只能用于官方客户端,想用第三方工具就得按API价格付费。

有观点认为,这种做法类似于Gmail早期提供1GB存储空间,结果有人开发了GmailFS把邮箱当网盘用,Google最后修改了服务条款。看起来是在保护商业模式。

但用户的愤怒不难理解。OpenCode的体验比Claude Code更好,功能更丰富,Token消耗却不会更多——订阅本身就有使用上限。Anthropic的限制并非出于成本考虑,而是担心用户发现:离开Claude Code后,换用其他模型轻而易举。

更耐人寻味的是时机。有人注意到,Claude Code最近一个月表现明显变差,怀疑是在后台偷偷把更多任务分配给便宜的Haiku和Sonnet模型,以应对DoW事件后暴增的使用量。也就是说,Anthropic可能正在牺牲高价订阅用户的体验,用来补贴低价用户增长。

一位用户的遭遇很有代表性:因为用OpenCode被封号,换了邮箱重新订阅,只用官方工具,结果还是被封。他说,从没见过一家科技公司对用户这么敌视,包括90年代的微软。

不少人已经转向Codex配合$200/月的OpenAI订阅。Claude的模型优势正在缩小,而工具生态的封闭正在加速这个过程。Anthropic团队给人的感觉是,他们觉得自己在造神,普通用户的需求无足轻重。
Agent时代,纯知识模型还有存在价值吗?| 帖子

当整个行业都在追逐Agent能力时,有人想要的只是一个「博学」的模型——不需要写代码、不需要调用工具,就像离线版的全知百科。但这个需求在2025年似乎已经过时了。

三年前接触LLM,是为了摆脱搜索引擎那糟糕的信噪比,获取贴合场景的定制化知识。现在所有实验室都在堆Agent能力,这让人困惑:有限的参数预算下,强化工具调用是否会削弱模型本身的知识储备?

有观点认为知识量与参数数直接相关。测试Qwen3.5时发现,35B的MoE在Q4量化下的幻觉比27B密集模型的Q5还多,即便27B降到IQ3、显存只占12GB,仍比20GB的35B更可靠。规模更大的MoE能否改善这一点?

前沿实验室似乎已经放弃了纯知识路线。合成数据(chain-of-thought、工具使用轨迹)让模型更擅长推理,但训练算力有限,知识广度成了牺牲品。Tulu 3是个例外,它基于更多自然语料而非合成推理数据训练。

但「知识」和「认知」的界限本就模糊。如果只想要信息源,小模型+搜索工具就够了。但要让AI真正教学、解释、适配目标,你需要的不是知识堆砌,而是认知能力——这恰恰就是Agent。

有人提出解决方案:用Qwen3.5-9B这样的小模型,配上搜索工具,在系统提示词里列出可信来源优先级。模型的任务不是记住所有事实,而是知道去哪找、如何用。这比让405B模型硬记维基百科高效得多。

实际上,即使是Claude Opus这样的顶级模型,最近在简单常识问题上也开始失误,稍加质疑就会反复翻转立场。GPT-4在2023年的领域深度记忆比某些更新的「更聪明」模型还好,因为它没被过度调优成输出格式工具。模型正在被训练成「外包者」而非「思考者」。

有网友提到,依赖模型内置知识风险极高——幻觉不可靠,就算有知识也容易出错。现在的大context和工具调用能力下,引用外部知识才是正道。

仅英文维基百科未压缩就有10TB。没有哪个「本地规模」模型能装得下所有事实。知识需要参数,也需要正确使用这些参数的能力。

最接近「全知百科」的配置:Qwen3.5 397B(密集模型)+ 维基百科/Wikidata的RAG,一个9B模型配好检索能打败裸奔的70B。或者试试GLM-5、Kimi-K2.5、DeepSeek V3.1这些新的超大模型。

核心矛盾在于:谁来定义「真相」?LLM从来不是魔法真理机器,它需要海量已知真相来训练。真相是相对的,判断是用户的工作,不是模型的。

模型会过时,这就是为什么实验室都转向推理能力+搜索工具,而非单纯喂数据。知识不是终点,上下文和推理才是实际使用中更重要的东西。
OpenAI的1000倍工程师神话 | 帖子

OpenAI宣称现在已经出现“1000倍效率”的工程师,但一线开发者的反馈却截然不同。AI工具确实有帮助,但远非那种“一个顶一千个”的革命性飞跃,而且持续指导AI、检查修正其输出反而让工作更累了。

有观点认为,这种说法把工程工作变成了一场对抗虚构完美标准的竞赛,最糟的是让人永远觉得自己落后了。

真正在用AI写代码的人怎么说?一位开发者提到:“AI根本无法独立完成工作。我必须全程在场指导它、引导它、检查它的成果、纠正错误……这些模型输出token的流从不停歇,和AI协作实际上很累人,即使我几乎不再亲手写代码了。”

更值得警惕的是长期风险。AI生成的代码在短期内看起来运行良好,但时间一长可能会出现无法修复的bug,到那时只能推倒重来。问题是后果往往来得很晚,但伤害已经造成。

当然,也有开发者表示最近几个月没遇到“无法修复需要重启”的问题,但前提是有成熟的开发流程:系统化的规划、详细的技术规格、测试、上下文管理和代码审查,在AI写任何一行代码之前就做好准备。这更接近“智能体工程”而非单纯的AI代码生成。

有传言称一些顶尖工程师在AI credits上的花费已经接近年薪,大型科技公司可以轻松追踪工程师的算力消耗和产出,甚至可能搞出反乌托邦式的绩效排行榜。如果拿一个完全不用AI的工程师做对比,所谓的“1000倍工程师”可能只是lines of code游戏。

一位开发者的评论很现实:“就算有了成千上万美元的tokens和数百小时专家级prompt调教,Claude也做不了我为了通过高年级开发课必须做的事。”

这些夸张数字更像是营销团队为了吸引投资者而堆砌的修辞。真要出现几个100倍工程师,产品团队跟不上,QA跟不上,销售、运营、客服都会掉队,业务流程会直接崩溃。
这个Claude技能让你的AI提示词不再浪费额外Credits | 帖子

一个名为prompt-master的开源Claude技能在一周内获得600+星标。它能根据你使用的AI工具(Cursor、Midjourney、Claude Code等)自动生成最优提示词,避免重复调整和浪费Credits。工具已支持35种常见错误模式修正和12种任务模板。

提示词优化工具并不新鲜,但这个项目的核心竞争力在于“工具特定路由”。

同样是生成吉卜力风格的东京夜景俯视图,给Midjourney的提示词是45个token的逗号分隔描述符,先锁定相机角度防止模型默认街景构图,再叠加视觉线索。给DALL-E 3的提示词则变成80个token的散文句式,末尾专门加上“不要在图像中包含任何文字或字母”来抑制它爱出现的随机文本伪影。

这种差异不是表面功夫。Cursor和Claude Code的上下文管理逻辑完全不同,用同一套提示词会直接崩。ComfyUI用户在用Stable Diffusion 1.5、SDXL还是Flux,输出结构都不一样,需要分别生成正向和负向提示块。甚至向o1模型添加思维链反而会降低效果,这是35种“烧Credits模式”中的一种。

有观点认为直接跟Claude Code像跟人聊天一样就行,出错了再说要改什么。开发者的回应很务实:这能省Credits,也能让模型理解更清晰。但更重要的是使用场景远不止对话,图像、视频、研究、演示、配音,每个领域的最佳实践完全不同。

项目在7天内从600星涨到900星,期间社区持续提出支持新工具的请求:Figma Make、Kimi 2.5、Ollama、Google Stitch。开发者几乎全天候在评论区确认兼容性,甚至当天就为特定用户添加了SeeDream和LTX 2.3的路由。v1.4刚发布,v1.5已经在规划agent支持。

整个项目像是在验证一个简单但容易被忽视的事实:AI工具之间的差异比我们想象的大得多,通用方案在具体场景下往往意味着妥协。
告别千篇一律的AI审美,TypeUI 让 Claude 学会48种设计语言 | #工具

开发者elwingo1用两周时间做了个开源项目TypeUI,提供48个设计skill文件给Claude用,让AI生成的网站不再千篇一律。每个文件就像给AI装了一套设计语言,还能通过CLI自定义颜色和字体。

这个项目不是从零开始的。elwingo1四五年前创立了UI库Flowbite,有设计背景,看到大家从传统设计系统转向AI工具后,决定把多年的设计品味转译成AI能理解的指令。

skill文件本质上是人工策展的设计规则。elwingo1强调“AI需要被推向正确的方向”,他和朋友正在开发“增强版”skill文件,加入阴影、边框等更细致的规则,甚至考虑做可视化编辑器,让设计规则能跨项目同步。

使用很简单,直接下载skill文件添加到Claude,或者用命令`npx typeui.sh pull [主题名]`。有网友提到“真正的技巧是在skill文件里写布局规则,比如'每行最多3张卡片'或'统一用8px栅格'”,这样能省去大量来回调整。

项目托管在GitHub,所有文件都能在awesome-design-skills仓库找到。有人问能不能生成Figma文件,elwingo1说理论上可以通过生成Figma的JSON实现。也有网友上传自己喜欢的网站截图,用`npx typeui.sh generate`让AI反向生成对应的skill文件。

Google最近推出了类似工具,但TypeUI的优势是不绑定特定模型,Claude、Gemini都能用。有观点认为这类设计系统的未来在于将视觉规则标准化,让非设计师也能保持设计一致性。
德鲁克管业务,芒格看决策,马斯克推执行——六位大师全跑在我的工作系统里 | 推文

一位创业者将德鲁克、乔布斯、原研哉、芒格、巴菲特、马斯克六位大师的思维框架装进AI系统,构建了一套多顾问决策机制。每位“顾问”负责不同领域:德鲁克审视客户价值,乔布斯打磨产品体验,原研哉精简系统架构,芒格提供多维决策,巴菲特聚焦护城河,马斯克推动执行。这不是玄学,而是基于Claude Code的可运行架构。

德鲁克砍掉了作者90%“感觉对”的想法。他只问两个问题:你的客户是谁?你在为他们创造什么价值?三个看似不错的新功能死在这两个问题下,死得其所。

乔布斯让“够好”变得不够好。产品页面内容砍掉一半,转化率反而上升。原研哉更狠,他问的不是“怎么做得更好”,而是“这个东西有没有必要存在”。工作区删掉60%的文件夹和流程后,剩下的40%运转更顺了。

芒格用多元思维模型拆解决策——物理学思考时间,心理学思考人性,经济学思考激励。他帮作者识别了两次“感觉很好但实际是陷阱”的机会。

巴菲特只做一件事:帮你拒绝。每次焦虑要不要跟上某个新趋势,他都会说:专注你能做到最好的那件事,其他的无视。这是作者坚持做“高端窄众”留学业务、而不是“什么都做”的底层逻辑。

马斯克只有一个问题:你为什么还没开始?他用第一性原理拆解每一个“做不到”——这是真正的限制,还是你自己设的边界?至少三件事从“打算做”变成了“已经发布”。

这套系统基于Claude Code的Agent Team功能,配合定制化Skill运行。每位顾问有专属提问框架、专属决策领域、专属刹车机制。架构对应作者实际运行的三将军体系:马斯克直属推动执行,Jobs和原研哉服务增长将军,德鲁克、芒格、巴菲特服务商业将军。

有观点认为,这种做法本质是将世界级思维体系转化为可调用的决策模块。与其从零摸索,不如让巨人的思维成为系统的一部分。

作者强调,这不是固定答案,只是抛砖引玉。每个人的业务场景不同,需要的顾问也不同。重点不是照搬模板,而是找到自己尊敬的人,提取他们最核心的3个原则,装进系统提示词。

这套体系需要长期磨合、持续迭代。但越早开始搭建,就越早拥有一套真正属于自己的决策系统。
Back to Top