微软提出了一种面向行为的并发(BOC)编程范式,尤其适合 Python。| blog

“在 BOC 程序中,数据是共享的,但每个行为对数据拥有独特的时间所有权,从而无需通过锁来协调访问。对于 Python 程序员来说,这带来了诸多好处。行为通过装饰函数来实现,从程序员的角度看,这些函数的使用方式与普通函数无异。更重要的是,程序员的任务从解决并发数据访问问题转变为通过函数组织数据流。由此生成的程序更易于理解、更易于维护、更易于扩展,并且能够充分利用多核性能,因为可以高效地调度行为在多个进程中运行。”

它的全名是 Behavior-Oriented Concurrency in Python,核心目标是让程序员把注意力转移到有哪些行为要发生、这些行为依赖哪些数据、数据如何在行为之间流动这样的问题上,降低并发编程的难度。官网把它概括为一种适合 Python 的并发/并行新范式:让每个行为在某段时间内独占它需要的数据,从而减少手动协调共享数据的负担。
OpenAI 把训练 ChatGPT 用的网络协议开源了。| 公告 | paper

这套协议叫 MRC(Multipath Reliable Connection,多路径可靠连接),由 OpenAI 联合 AMD、博通、英特尔、微软、英伟达共同开发,通过 OCP(开放计算项目,业内最大的开源硬件标准组织)开放给全行业。AMD、博通、微软、英伟达同步发了配套博文。

训练大模型,几万到十几万张 GPU 要保持步调一致。一次训练步可能涉及几百万次数据传输,只要有一笔晚到,所有 GPU 都得干等。集群越大,链路抖动和故障越频繁。

传统网络的麻烦:一条链路挂了,整个训练任务可能崩掉,得回到上一个检查点重跑;交换机重新算路由要花好几秒甚至几十秒。OpenAI 在搭 Stargate(其大型算力基础设施项目)这种规模的集群时,遇到的第一个瓶颈就是网络。

过去一笔传输只走一条路径,MRC 改成把数据包拆散,同时分头走几百条路径,目的地再按内存地址重新拼起来。

链路出问题,微秒级就能绕开,不需要交换机重算路由表。OpenAI 还把动态路由协议(BGP)整个砍掉,改用 SRv6 源路由:发送方直接指定每个包走哪条路,交换机退化成"无脑"转发器,故障面大幅缩小。

网络结构因此简化。原本要 3 到 4 层交换机才能连起十几万张 GPU,MRC 的多平面设计 2 层就够,功耗、成本、故障点全降。

MRC 已经部署在 OpenAI 所有最大的英伟达 GB200 超算上,包括 Stargate 在德州 Abilene 与甲骨文合建的站点,以及微软 Fairwater 数据中心。多个 OpenAI 模型用它训练出来。

最直观的例子:最近一次前沿模型训练(服务 ChatGPT 和 Codex)期间,团队重启了 4 台核心交换机,不需要跟训练团队协调;每分钟还有多次链路抖动,对训练任务也没有可测量的影响。换以前,这种事故足以让整个任务崩溃。
Florian Brand ( Prime Intellect的工程师、Interconnects AI的编辑)五一期间刚到中国AI实验室来访问,转了一圈后写下了他的感受。看他的文章对国内AI研究员们描写的非常鲜活。去过的实验室包括:Moonshot、小米、MiniMax、智谱、美团、阿里巴巴、蚂蚁灵境、ModelScope、零一万物、宇树科技。| 原文

下面是翻译。
-- 我在中国 AI 实验室感受到的氛围

在过去大约 10 天里,我有机会和 SAIL 的一群很棒的人一起访问中国的 AI 实验室。作为一个在半年内第一次分别去中国和美国的人,我发现两地的差异很有意思,但更让我着迷的是它们之间的相似之处。

我最强烈的印象是,我见到的 AI 研究人员都非常谦逊。他们对其他实验室和同行评价很高。DeepSeek 经常被提起,可能是因为他们在我们访问前几天刚发布了一个模型;大家谈起 DeepSeek 的论文时都带着真诚的钦佩。很多研究人员彼此都是好朋友,要么上过同一所大学,要么来自同一个家乡。他们会很开放地讨论自己的工作,而这些发现往往会在几个月后写进论文里。

这是它和西方 AI 圈最大的不同之一。在美国,整体氛围常常更像是一种零和竞争。各个实验室都很谨慎地塑造自己的定位。研究人员会考虑竞争,有些人也很自视甚高。领导者们会在泄露的备忘录里互相辱骂和攻击。这种差异或许可以用一个事实来解释:美国领先的实验室大多是闭源的,而许多中国实验室是开放的。中国实验室对字节跳动的豆包感到“害怕”——豆包是使用量遥遥领先、同时又闭源的聊天机器人。

与此同时,整体的能量感又和旧金山出奇地相似。这些研究人员都是重度网民,大量阅读 Twitter 和小红书,其中小红书正变得越来越受欢迎。他们都在用 Claude Code,或者自己的 CLI,来构建下一个模型。有些人在我们开会期间还在监控训练任务,看 reward curve 往上走。他们在思考如何进一步扩展规模,也抱怨算力不够。他们对当前基准测试的状态感到不满。

他们的主要关注点是训练出更好的模型。这一点不同于旧金山,在那里研究人员会思考 AI 的政治或哲学影响。他们不怎么讨论大规模失业、永久性的底层阶级,或者自己的模型是否有意识。他们只是想训练出优秀的模型。当他们听说你用过他们的模型时,眼睛会亮起来。他们迫切希望在下一代模型中修复当前模型的所有缺点。他们会通宵熬夜推动模型发布,然后第二天仍然出现在办公室。

我见到的大多数研究人员都非常年轻,很多人二十出头或二十五六岁。有些还是本科生,但更常见的是在读博士,同时在工业界工作并继续做研究。他们之间的共识是:相比学术界,现在工业界显然更有意思。我非常认同这一点,因为我自己也做过完全一样的选择。这些实验室非常重视这类人才获取,积极招聘实习生和研究生;这是西方实验室不太做的事情。

研究人员的乐观情绪也延伸到了普通人群中。普通大众似乎对技术以及 AI 和机器人技术的前景更加乐观。旅途中有人讲起他们的父母、祖父母用豆包和 DeepSeek 做各种事情,包括絮絮叨叨地讨论数学定理。这当然和西方很不一样,在西方,普通大众对 AI 往往很反感。

总的来说,这次旅行让我对这个生态系统有了一个很小的窥见。想在短短几天内了解这样一个庞大文明的文化,是不可能的。作为开放 AI 生态和开放研究的坚定支持者,我对二者的未来感到非常乐观,也希望这能在未来带来大量国际合作。

我想感谢我在 Moonshot、小米、MiniMax、智谱、美团、阿里巴巴、蚂蚁灵境、ModelScope、零一万物、宇树科技以及其他地方见到的所有很棒的人。感谢你们抽出时间,也感谢你们热情的接待。同时,也感谢 SAIL 组织这次行程,感谢所有同行的作者和记者。能在如此短的时间里遇到这么多聪明而有抱负的人,我非常感激。
面对大型代码库,常常不知道从哪里入手,文件函数关系复杂,来回grep查找效率低下。

Understand-Anything 把代码分析功能全部整合到一起,提供了可视化理解代码库的解决方案。

不仅能生成交互式知识图谱,还支持语义搜索、引导式架构游览、变更影响分析,甚至能处理Karpathy风格的LLM知识库。

主要功能:

- 交互式知识图谱,支持文件、函数、类及依赖关系可视化探索;
- 多代理管道分析,按架构层(API、服务、数据层等)自动着色分组;
- 模糊搜索与语义搜索,能按含义查找代码组件;
- 引导式架构游览,按依赖顺序自动生成学习路径;
- 变更影响分析,预览修改对系统的波及范围;
- 支持知识库分析,将文档/维基转为可导航的知识图谱;
- 跨平台兼容Claude Code、Cursor、Copilot、Gemini CLI等多款AI编码工具。

支持Claude Code原生插件安装,分析后生成交互式React Flow仪表盘,适合新手上手大型项目或团队协作代码审查。
台积电路线图揭秘:算力增长的本质是物理堆叠 | 推文

AI 时代的算力竞赛已不再是单纯的晶体管缩减游戏,而是一场关于制程、封装、内存与散热的系统级集成战争。台积电的路线图揭示了一个事实:算力增长的本质是物理系统的规模化堆叠。

所有的 AI 魔法,底层都是极度沉重的物理系统。

台积电最新的技术路线图释放了一个很冷酷的信号:过去那种靠挤压晶体管尺寸来换取性能的“节点缩放”时代正在瓦解。现在的竞争维度变了,不再是比谁的芯片更聪明,而是比谁能把整个算力系统造出来。

有观点认为,AI 正在把半导体推回权力的中心。到 2030 年,HPC 和 AI 业务将占据半导体市场的半壁江山。这种增长不是波浪式的周期波动,而是结构性的跃迁。

制程的逻辑正在分化。像 A13 这种节点,追求的是经济上的明智,通过保持设计兼容来降低客户迁移 IP 的成本;而像 A16 这种节点,则是为了解决 AI 芯片由于电流密度过大带来的电源完整性问题,通过背面供电技术把电源和信号线分离开。这就像是在拥挤的城市里,不再只是盖更高的大楼,而是开始修地下供电管网。

更值得注意的是,算力的增长引擎已经转移到了封装层。CoWoS、SoIC 和 HBM 的组合,让性能的提升不再依赖单一芯片,而是依赖“系统封装规模”。当单颗芯片做不动时,就往里面堆更多的 HBM,甚至直接搞晶圆级系统(SoW)。

有网友提到,AI 正在从“理解世界”转向“参与世界”。当 AI 进入汽车和机器人领域,变成 Physical AI 时,对延迟和可靠性的要求会直接决定生死。

摩尔定律并没有消失,它只是从单纯的微缩,变成了复杂的系统工程。
用Claude Code写代码太贵了!每月$200还有使用限制,自主代理循环功能强大但成本高昂。

deepclaude 完美兼容Claude Code的代理循环,只换大脑不换身体,实现17倍成本节省!

支持DeepSeek V4 Pro($0.87/M输出)、OpenRouter、Fireworks AI等后端,终端+VS Code无缝运行,文件编辑、bash执行、git操作全支持。

主要功能:

- 兼容Claude Code完整工具链:文件读写编辑、bash/PowerShell执行、git操作;
- 支持DeepSeek V4 Pro(96.4% LiveCodeBench)、OpenRouter(最低$0.44/M)、Fireworks(最快US服务器);
- 实时后端切换(/deepseek、/anthropic命令,无需重启);
- 自动上下文缓存,重复请求成本低至$0.004/M(120倍节省);
- 成本追踪与节省统计,代理会话中随时查看;
- VS Code/Cursor集成,支持远程控制(手机/平板浏览器访问)。

支持Windows/macOS/Linux,通过简单脚本安装即可运行,适合开发者节省AI编码成本。
Deep Code CLI 编程时把 AI 编码助手整合到终端,提供专为 deepseek-v4 优化的深度思考编码解决方案,无需打开编辑器、聊天工具、浏览器搜索资料,不用来回切换终端和文档。

Deep Code CLI 不仅支持思考模式、推理强度控制,还内置 Agent Skills 扩展、多模态图片理解、Web 搜索工具,甚至可无缝切换 VSCode 插件。

主要功能:

- 深度思考模式,支持推理强度控制(max/medium/min)和上下文缓存降低成本;
- Agent Skills 系统,支持用户级和项目级技能扩展;
- 高质量终端交互,快捷键操作:Enter 发送、Ctrl+V 粘贴图片、/ 打开技能菜单;
- 多模态支持,图片理解(推荐 Doubao-Seed-2.0-pro 模型);
- 支持 Web 搜索工具、Slack 通知脚本、Coding Plan 等自定义扩展;
- 支持 deepseek-v4-pro/flash 及 OpenAI 兼容模型,配置简单共享 VSCode 插件。

支持 npm 全局安装,在任意项目目录运行 deepcode 即可启动,适合开发者日常编码加速。
校园 AI 素养教育背后:是培养思考者,还是批量造用户?| blog

提要:一项旨在资助学校开展“AI素养”教育的法案引发争议。批评者认为,这并非真正的素养教育,而是科技巨头通过教育系统进行的“用户预热”,旨在将学生培养成被动的使用者而非创造者。

在学校里,Chromebook 预装了 Gemini,学生写作文时,屏幕会跳出“帮我写”;做幻灯片时,它会问“帮我视觉化”。这些提示就像某种无处不在的系统中断,不断诱导孩子把认知工作外包给云端。

如果学习的目的是为了通过过程来获得经验,那直接跳过思考、只拿结果的行为,还叫学习吗?

有观点认为,这种所谓的“AI素养”教育,本质上是科技巨头在进行“用户入驻”。当法案定义的素养是“有效使用 AI”时,这更像是职业技能培训,而不是培养独立思考能力的公共教育。教育不该是为公司培养熟练的技术员,而应该教人如何批判性地审视世界。

有网友提到,这和当年学 Microsoft Office 的“IT 素养”很像,但性质完全不同。学 Office 是掌握一种通用的生产力工具,而学“如何写 Prompt”更像是学习如何向一个黑盒索要答案。

如果把学习比作构建底层架构,AI 应该是编译器或辅助工具,帮助我们更高效地运行逻辑;但现在的趋势似乎是,孩子们还没学会写代码,就先学会了如何直接运行别人的程序。

更有意思的冲突点在于:真正的 AI 素养,应该是理解系统的运作逻辑、谁在从中获利、以及如何识别它的幻觉。但如果教学大纲是由那些希望增加订阅用户的厂商来主导,我们得到的可能只是一套“如何更顺从地使用工具”的说明书。

当孩子习惯了“按一下按钮就得到答案”,他们可能会失去那种从零开始、在混乱中建立秩序的耐心。

如果一个工具让你变得更强大,那是赋能;如果一个工具让你变得不再需要思考,那是降维。
过度依赖抽象与AI,正在掏空程序员的核心能力 | blog

随着计算抽象层不断加深,开发者对底层逻辑的理解正在退化。AI 的介入进一步降低了门槛,让“看起来能用”的代码充斥市场,却掩盖了系统性风险与专业价值的流失。

现在的软件开发,越来越像是在用昂贵的精密仪器盖违章建筑。

以前写程序,得盯着内存、算着指令周期,那是跟机器“对话”。现在的开发者,更像是在玩一种名为“调用”的拼图游戏。大家导入各种库,写着看似高级的逻辑,却没人真的知道这些函数在底层是怎么转动的。这种抽象带来的自由是有代价的,它在解放生产力的同时,也把我们的理解力给“屏蔽”了。

有网友提到,这种现象在 AI 时代被无限放大。用 LLM 生成代码变得轻而易举,甚至能做出很漂亮的界面,但“好用”和“能用”之间隔着深渊。这就像是在阿里巴巴买了一堆看起来像钢材的东西,用来盖摩天大楼,这本身就是个危险的赌注。

这种趋势正在重塑整个行业的价值链。

过去,开发者的高薪某种程度上建立在“复杂性”之上——因为机器难懂,所以人才贵。但当 AI 能够通过非确定性的概率预测来模拟逻辑时,这种护城河正在坍塌。有观点认为,很多公司现在只想要快速交付的 Jira 工单,而不关心代码是否优雅、是否高效。他们更愿意支付更低的成本,去换取一个“勉强能跑”的结果。

这让那些真正理解底层原理、追求架构质量的专业人士感到一种深深的异化。在很多公司眼里,懂原理的人反而成了“阻碍进度”的负担。

有趣的是,这种“降级”不仅发生在软件领域。就像有人用房屋检查的例子类比:如果一个建筑师只看外观,却对地基的裂缝视而不见,那这栋房子迟早会出事。软件行业似乎正在进入一个“只要不崩,就先跑起来”的阶段。

但问题是,当所有的系统都建立在这些脆弱、松散、甚至带有随机性的抽象层之上时,我们该如何应对那次必然到来的、由于缺乏底层掌控力而引发的系统性崩溃?
软件版本控制三十年演进:从压缩包备份到一统江湖的 Git | blog

本文回顾了从手动压缩包、锁定式管理到分布式协作的软件版本控制演进历程,探讨了 Git 如何在技术危机中诞生并凭借其底层架构逻辑确立了长达二十年的统治地位。

版本控制的历史,其实是一部不断试图解决“如何不丢代码”的斗争史。

在正式的系统出现前,开发者过得相当狼狈。那时候的“版本管理”大概就是把项目打包成 `project-2003-04-15.zip`,然后存进备份目录。大家在周一早晨讨论的不是逻辑,而是“上周二那个压缩包里是不是才是对的版本”。这种 ad-hoc 的方式本质上是极其低效且焦虑的。

后来出现了基于锁(Lock-based)的模式,比如 RCS。你想改文件?先把它锁住,别人就只能等着。这在单机时代没问题,但在协作时代简直是灾难。随后的 CVS 引入了并发编辑,虽然解决了“排队”问题,但它缺乏原子性。如果网络在中途断了,仓库就会处于一种谁也说不清的混乱状态。与此同时,微软系的 Visual SourceSafe 虽然在商业领域流行,却因为数据库频繁损坏,让“定期备份仓库”成了 IT 部门的必修课。

转折点发生在 2005 年 4 月。因为 BitKeeper 撤销了免费授权,Linus Torvalds 在十天内写出了 Git。

Git 的出现不是一种缓慢的演进,而是一次架构层面的降维打击。它把版本控制从“中央服务器”的桎梏中解放出来,变成了分布式模型。每一个 clone 都是一个完整的、拥有完整历史的仓库。这种基于内容寻址(Content-addressed)的存储结构,让数据损坏变得可检测,而不是静默发生。

有网友提到,GitHub 的成功在于它把 Git 的分布式特性包装成了社交化的 Pull Request 工作流,让协作变得“可见且可点击”。

即便在 2026 年,虽然出现了 Sapling 或 Jujutsu 等有趣的挑战者,但 Git 的核心数据模型依然稳如磐石。Git 并不完美,它复杂的指令集常让人抓狂,甚至偶尔也会因为误操作导致代码丢失。但它至少做到了:它把控制权还给了开发者,而不是让开发者去伺候平台。

现在的开发流程,究竟是在利用工具,还是在被工具的惯性裹挟?
Back to Top