阿里 AI 进入战时体制:打通模型、云与业务的全链路
提要:阿里巴巴通过全员信宣布重大组织调整,核心在于将AI战略从单纯的技术探索转向规模化商业落地。通过成立集团技术委员会并升级通义实验室为事业部,阿里试图打破业务壁垒,实现模型、云基础设施与应用场景的深度集成。
这次调整更像是一次系统级的内核重构。以前的架构里,AI、云和业务各跑各的进程,指令集不统一,导致整体执行效率极低。现在的动作很明确:通过成立由吴泳铭挂帅的技术委员会,把技术路线的决策权与资源调度权收拢到中枢。
通义实验室升格为事业部,这不仅仅是改个名字。在计算机体系里,实验室更像是处于研发阶段的实验性指令,而事业部意味着它已经进入了生产环境,要开始大规模处理并发请求并追求吞吐量了。周靖人负责的大模型研发,现在必须直接对接阿里云的基建和淘宝的业务场景,不再仅仅为了跑分或发论文。
有观点认为,这种调整是在建立一种“战时体制”,把AI从一个可选插件变成了操作系统的核心内核。
不过,组织的惯性往往比技术迭代更难处理。有网友提到,频繁的架构调整有时会消耗执行效率。当顶层在进行激进的重构时,底层的执行层是否还能保持稳定的指令流,是一个值得观察的问题。
这种重构能否成功,取决于这套新的“指令集”能否真正跑通从模型研发到商业变现的整个流水线。
提要:阿里巴巴通过全员信宣布重大组织调整,核心在于将AI战略从单纯的技术探索转向规模化商业落地。通过成立集团技术委员会并升级通义实验室为事业部,阿里试图打破业务壁垒,实现模型、云基础设施与应用场景的深度集成。
这次调整更像是一次系统级的内核重构。以前的架构里,AI、云和业务各跑各的进程,指令集不统一,导致整体执行效率极低。现在的动作很明确:通过成立由吴泳铭挂帅的技术委员会,把技术路线的决策权与资源调度权收拢到中枢。
通义实验室升格为事业部,这不仅仅是改个名字。在计算机体系里,实验室更像是处于研发阶段的实验性指令,而事业部意味着它已经进入了生产环境,要开始大规模处理并发请求并追求吞吐量了。周靖人负责的大模型研发,现在必须直接对接阿里云的基建和淘宝的业务场景,不再仅仅为了跑分或发论文。
有观点认为,这种调整是在建立一种“战时体制”,把AI从一个可选插件变成了操作系统的核心内核。
不过,组织的惯性往往比技术迭代更难处理。有网友提到,频繁的架构调整有时会消耗执行效率。当顶层在进行激进的重构时,底层的执行层是否还能保持稳定的指令流,是一个值得观察的问题。
这种重构能否成功,取决于这套新的“指令集”能否真正跑通从模型研发到商业变现的整个流水线。
造谣成本趋近于零,真相成本却越来越高:AI 黑产敲响行业警钟
上海警方近日破获一起利用AI批量制造造谣稿件攻击小米、蔚来、理想等车企的案件。嫌疑人通过AI技术规模化生产虚假信息,试图通过操纵舆论牟利。
这起案件最让人脊背发凉的地方,不在于造谣本身,而在于这种“工业化”的效率。
两个人,五台电脑,操控着4000多个账号,竟然能跑出70万篇稿件。这已经不是传统的写稿了,这更像是一个运行在社交媒体上的恶意脚本。他们利用AI洗稿,抓取“电池自燃”、“销量腰斩”等关键词,通过对既有信息进行去伪存真的篡改,实现了一种低成本、高并发的“数字暗杀”。
单篇稿件的成本甚至低到了几毛钱。这种极低的指令执行成本,与企业维护声誉所需要支付的巨额防御成本之间,形成了一种极其不对称的消耗战。
有网友提到,这种行为本质上是在破坏行业的“共识协议”。当舆论场被海量的、由算法生成的虚假噪声充斥时,用户对真实信息的检索和验证难度呈指数级上升。
虽然警方已经采取了刑事强制措施,但更值得深思的漏洞在于:如果造谣的边际成本可以被AI无限压低,那么真相的传播速度是否还能跟上这种规模化的攻击?
有观点认为,黑产的逻辑往往不关乎品牌好坏,只关乎流量变现。这种“掀桌子”式的竞争,最终只会让整个新能源车圈的舆论环境陷入信任崩塌的死循环。
现在的技术进步,似乎正让“抹黑”变得像调用一个API接口一样简单。
上海警方近日破获一起利用AI批量制造造谣稿件攻击小米、蔚来、理想等车企的案件。嫌疑人通过AI技术规模化生产虚假信息,试图通过操纵舆论牟利。
这起案件最让人脊背发凉的地方,不在于造谣本身,而在于这种“工业化”的效率。
两个人,五台电脑,操控着4000多个账号,竟然能跑出70万篇稿件。这已经不是传统的写稿了,这更像是一个运行在社交媒体上的恶意脚本。他们利用AI洗稿,抓取“电池自燃”、“销量腰斩”等关键词,通过对既有信息进行去伪存真的篡改,实现了一种低成本、高并发的“数字暗杀”。
单篇稿件的成本甚至低到了几毛钱。这种极低的指令执行成本,与企业维护声誉所需要支付的巨额防御成本之间,形成了一种极其不对称的消耗战。
有网友提到,这种行为本质上是在破坏行业的“共识协议”。当舆论场被海量的、由算法生成的虚假噪声充斥时,用户对真实信息的检索和验证难度呈指数级上升。
虽然警方已经采取了刑事强制措施,但更值得深思的漏洞在于:如果造谣的边际成本可以被AI无限压低,那么真相的传播速度是否还能跟上这种规模化的攻击?
有观点认为,黑产的逻辑往往不关乎品牌好坏,只关乎流量变现。这种“掀桌子”式的竞争,最终只会让整个新能源车圈的舆论环境陷入信任崩塌的死循环。
现在的技术进步,似乎正让“抹黑”变得像调用一个API接口一样简单。
工作时总要翻邮件、查会议记录、搜笔记,上下文来回切换,效率低下还容易遗漏关键信息。
Rowboat 把你的工作记忆全部整合到一起,开源 AI 同事,提供本地优先的知识图谱解决方案。
不仅能连接 Gmail 和 Google Calendar 构建长期知识库,还支持会议准备、邮件起草、生成 PPT/PDF,甚至实时跟踪人物/话题动态。
主要功能:
- 本地知识图谱,自动从邮件、日历、会议笔记构建长期记忆(Obsidian 兼容 Markdown);
- 会议准备,提取历史决策、待解决问题和相关线程生成简报;
- 智能起草邮件、文档和 PPT/PDF 幻灯片,基于你的工作上下文;
- 实时直播笔记,跟踪人物/公司/话题,支持 X/Reddit/新闻监控;
- 语音备忘录,自动提取关键要点更新知识图谱;
- 支持本地模型(Ollama/LM Studio)和外部工具(搜索/CRM 等),数据全本地存储;
支持 Mac/Windows/Linux 多平台,一键下载安装,适合个人和团队使用,无云端依赖。
Rowboat 把你的工作记忆全部整合到一起,开源 AI 同事,提供本地优先的知识图谱解决方案。
不仅能连接 Gmail 和 Google Calendar 构建长期知识库,还支持会议准备、邮件起草、生成 PPT/PDF,甚至实时跟踪人物/话题动态。
主要功能:
- 本地知识图谱,自动从邮件、日历、会议笔记构建长期记忆(Obsidian 兼容 Markdown);
- 会议准备,提取历史决策、待解决问题和相关线程生成简报;
- 智能起草邮件、文档和 PPT/PDF 幻灯片,基于你的工作上下文;
- 实时直播笔记,跟踪人物/公司/话题,支持 X/Reddit/新闻监控;
- 语音备忘录,自动提取关键要点更新知识图谱;
- 支持本地模型(Ollama/LM Studio)和外部工具(搜索/CRM 等),数据全本地存储;
支持 Mac/Windows/Linux 多平台,一键下载安装,适合个人和团队使用,无云端依赖。
构建智能体软件(Agentic Software)不应仅仅是“提示词工程”的堆叠,而是一场严谨的系统工程实践。Ashpreet Bedi 通过复盘贝尔实验室构建电话网络的历史教训,指出当前 AI 开发中“过度优化局部、忽视系统整体”的误区。
+ 真正的智能体软件是“业务逻辑被 Agent 替换”的常规软件,它必须在五个核心层面上实现协同:
1. 智能体工程(Agent Engineering)
这是系统的“大脑”。除了模型选择,更关键的是定义确定性的执行流、工具配置和上下文管理。智能体的行为在可预测时应保持确定,在不可预测时应保持可观测。
2. 数据工程(Data Engineering)
上下文即数据。记忆、存储和知识库必须遵循成熟的数据工程原则:设计良好的 Schema、结构化查询以及高效的读写流水线。Agent 的能力上限取决于它获取数据的质量,而非模型参数。
3. 安全工程(Security Engineering)
安全必须由系统强制执行,而非靠提示词约束。“只读权限”应该是数据库连接层面的配置,而不是告诉 Agent “请不要修改数据”。必须通过 JWT 验证、RBAC(基于角色的访问控制)和请求隔离,防止数据越权。
4. 接口工程(Interface Engineering)
Agent 会出现在 REST API、Slack、终端等多个表面。挑战在于如何将不同的身份系统(如 Slack 用户 ID 与产品内部 ID)统一映射,确保权限控制在所有入口保持一致。
5. 基础设施工程(Infrastructure Engineering)
95% 的工作与传统服务无异(容器化、云部署、横向扩展)。剩下的 5% 在于应对 Agent 的特性:更长的请求耗时、流式响应(SSE/WebSockets)以及主动触发的任务。
+ 系统工程的实践:Dash 项目
为了证明这一理念,Agno 团队开源了 Dash —— 一个具备自我学习能力的 SQL 数据智能体。它展示了系统工程如何解决实际问题:
- 六层上下文增强:Dash 不直接写 SQL,而是结合表元数据、业务规则、历史查询模式、机构知识、错误学习记录和运行时 Schema 检查。
- 自我进化闭环:当 Agent 执行 SQL 报错时,它会诊断修复并记录“学习心得”。第 100 次查询比第 1 次更准,不是因为模型变强了,而是数据层进化了。
- 架构级安全:分析师 Agent 连接的是只读引擎,工程师 Agent 只能写入特定的 dash Schema。这种物理隔离确保了即便模型“幻觉”产生恶意指令,系统也会在底层将其拦截。
当我们从系统视角审视软件时,许多争论(如 MCP vs CLI)会变得显而易见。不要给 Agent 不受限的权限,要给它定义清晰、边界明确的工具;不要把记忆存在散乱的文件里,要存入数据库。
系统工程不是为了增加复杂性,而是为了让各个组件在交互中产生超越个体的可靠性。
我们从不缺少实现持续学习的尝试——从自蒸馏、实时强化学习到内存脚手架、重放方法或梯度投影。但遗憾的是,许多方法甚至没有在试图解决正确的问题。
基于经典机器学习文献与前沿对话,我尝试为大语言模型(LLM)的持续学习勾勒一个兼具原则性与野心的定义。
+ 核心愿景:
我们追求的是让 LLM 在顺序接触到分布迥异的新数据时,能够高效且具组合性地习得新能力,同时至少完整保留其通用能力。
以下是这一定义的五个核心维度:
1. 通用能力的保留
持续学习的基石挑战是“灾难性遗忘”。当模型接触稀疏新数据时,必须确保其原有的语言能力、指令遵循和逻辑推理不发生退化。
2. 顺序学习而非多任务并行
目前我们通过混合大规模数据来规避分布偏移,但这并非真正的学习。真正的持续学习应当像现实世界一样,能够从依次出现的数据流中提取表征。
3. 应对分布偏移
如果新旧数据分布几乎一致,持续学习将变得毫无挑战。真正的考验在于,当模型遇到与其训练分布完全不同的任务时,是否依然能稳健地吸收知识。
4. 极致的效率
如果拥有无限的计算资源和数据,内化新知识是平庸的。持续学习的本质在于效率——我们不能为了记住昨天与用户的一段对话,就去重新训练数万亿个 Token。
5. 跨阶段的技能组合
这是最高级的要求:模型不仅要记住 A 和 B,还要能将在不同时间点习得的技能进行“化学反应”。例如,先学编程,后学逻辑,模型应能自发组合出更强的代码推理能力。
+ 为什么必须是“参数化”的持续学习?
很多人认为,通过 RAG(检索增强生成)或外部脚手架(如 Markdown 文件、向量库)就能解决记忆问题,何必非要动模型的权重?但我认为,权重内的参数化学习有两大不可替代的优势:
- 规模化增长(Scaling):外部挂载的知识库会遭遇“上下文腐烂”和检索瓶颈。随着技能树的增长,外部方案往往边际递减。而参数化知识能从底层改变每一跳推理的“智力密度”,让模型越学越聪明,而非越学越臃肿。
- 自动化组合(Automaticity):神经记忆允许知识进行超高效的自动重组。这种“直觉式”的跨领域联想是检索无法企及的。就像学习编程能自动增强非代码领域的逻辑感一样,这种深层表征的进化才是真正的进化。
+ 未竟的思考
实现这一目标仍面临重重迷雾:
- 知识覆写:当新旧知识冲突时(如软件库版本更新),模型该如何权衡?
- 数据效率:参数化学习目前的样本效率远低于上下文学习,合成数据的质量将成为关键瓶颈。
- 认知核心:我们是否应该剥离百科全书式的记忆,只训练一个极其擅长使用外部工具的“认知核心”?
持续学习不仅是技术挑战,更是通往通用人工智能(AGI)的必经之路。我们正在与 Prime Intellect 合作开发一套全新的评估方法,试图真正量化这些理想特性。
+ 从单体应用到积木经济:软件开发的范式转移
软件开发的制胜法则正在发生剧变。过去,我们追求打造高质量的主线应用以获取用户;而今天,最有效的增长路径是提供“积木”(Building Blocks)——那些能让其他人、甚至 AI 代理,以数量取胜而非质量优先的开发原语。
Ghostty 的数据证明了这一点:其 macOS 应用在 18 个月内达到百万级日活,而作为底层积木的 libghostty 仅用 2 个月就突破了数百万用户。这种爆发式增长在 Next.js、Tailwind 等生态中屡见不鲜。这不仅仅是技术选型的变化,更是产品思维的底层重构。
1. 进口激增:AI 驱动的“胶水”时代
今天的软件工厂是“代理化”的。无论你是否接受,AI 已经成为生产力的核心。AI 或许不擅长从零构建一切,但它极擅长将高质量、文档完备且经过验证的组件“胶水”在一起。
过去,人类开发者组合原语需要极高的理解门槛,这个门槛天然过滤了低质贡献。如今,门槛消失了。软件不再仅仅是“库”或“框架”,它演变成了可被任意拆解、打补丁和重新组装的积木。
2. 出口爆发:数量胜过质量的红利
当工厂开始全速运转,软件的产出量是惊人的。虽然这带来了安全和不稳定性等负面影响,但其正面效应正在重塑生态:
- 维护成本的降低:作为积木提供者,你可以理直气壮地拒绝平庸的功能请求。既然提供了生产工具,用户完全可以自行构建特定功能。
- 研发的去中心化外包:主线应用的维护者可以观察生态中的无数分叉(Forks)和实验。这是一种高效的“先跑后择”机制:让社区去试错,主线只负责收割最优秀的创意。
- 认知度的降维打击:主线应用无法满足所有细分需求,但基于积木产生的无数衍生版本,能让技术渗透到最隐秘的利基市场。
3. 商业化的房间大象
在积木经济中,闭源商业软件正面临巨大挑战。目前的客观事实是:AI 代理在选择组件时,会压倒性地倾向于开源和免费软件。
虽然商业化的最终答案尚不明朗,但一个趋势是确定的:主线应用将变得更加稳定且克制,其生命力将由庞大的、多样化的用户群和外包化的研发生态共同支撑。
4. 范式已转,不进则退
软件积木和软件工厂已经统治了我们的环境。面对这种转变,你可以选择构建抵御洪流的孤岛,也可以选择完全拥抱这种混沌。
重点在于,这种转变不是“将要发生”,而是“已经发生”。我们正生活在其中。
+ 思考:
- 软件的未来不再是完美的艺术品,而是易于组装的乐高零件。
- AI 并不创造逻辑,它只是加速了逻辑的搬运与粘合。
- 拒绝平庸功能的底气,来自于你为用户提供了自行实现的能力。
- 伟大的产品不再是终点,而是他人创造力的起点。
大多数人把 Claude 当作一个语法更通顺的搜索引擎:提问、阅读、关闭标签。如果你也是这样,你正坐在金矿上捡碎石。
Claude 的真正价值不在于给出答案,而在于重塑你的思考方式。以下是 12 个能彻底改变你产出质量的深度用法,按影响力从低到高排列:
一、 破除思维盲区:从验证到挑战
1. 极限施压(Steelmaning): 别让它夸你。告诉它:“我决定做 X,请针对这个决策进行‘最强反驳’。”让它找出你计划中那个注定会失败的致命漏洞。在现实撞墙前,先在对话框里撞墙。
2. 深度访谈: 别直接下指令。要求它:“在我写完之前,不断向我提问,直到你完全理解我想表达的核心逻辑。”generic 的输入只会得到平庸的输出,这个步骤能逼你把模糊的直觉具象化。
3. 模拟特定读者:“请以一位看过 400 个项目的挑剔投资人的视角阅读这段话,告诉我你在哪里失去了兴趣。”好内容不分绝对的好坏,只看是否精准击中了目标受众的偏见与痛点。
4. 永久化个人声韵: 在 Project 中喂入 10 篇你的原创文章。让它学习你的节奏、用词习惯和呼吸感。你的声音就是你的品牌,别让 AI 的翻译腔毁了它。
二、 决策与效能:从执行到思考
5. 构建决策框架: 面对复杂的真实选择,给它变量,让它建立带权重的矩阵。聪明人不仅用它写作,更用它辅助思考。
6. 信息脱水: 面对 200 页的报告,别试图通读。要求它提供 500 字的简报,列出 5 个最具操作性的发现和 3 个本周必须执行的动作。信号胜过噪音。
7. 红队测试(Red-teaming): 把你的市场策略交给它,扮演一个冷酷的竞争对手:“这个方案在第 9 个月会怎么崩盘?”这种不适感,正是你避开真实失败的护身符。
8. 零代码数据洞察: 直接上传 CSV。不要等分析师,直接问它:“为什么 3 月收入下滑了?找出那个解释数据的关键维度。”
三、 进化为不同维度的工具
9. 维护“动态简报”: 在 Project 中建立一个持续更新的文件。每轮对话结束时,让它总结已达成的共识和待解决的悬念。别让灵感在关闭网页时断线。
10. 难堪对话演习: 扮演你最怕面对的那个人(比如要宣布裁员时的员工或业绩未达标时的董事)。在现实中自信的前提,是在模拟中被“摧毁”过。
11. 多维语境重写: 一份底稿,30 秒内转化为:给技术专家的实现方案、给高管的风险评估、给团队的 3 点 Slack 消息。这是工作流的降维打击。
12. 授人以渔(系统构建): 这是最高阶的用法。不要问它要答案,要它为你建立一套“产生答案的系统”。比如一套评估市场机会的永久核查清单。
你打开 Claude 是为了思考得更深、行动得更快,结果你却只用它来润色语法。工具从未改变,改变的是你提问的高度。
很多人对数学的畏惧,并非源于天赋不足,而是因为最初接触它的方式过于生硬。数学思维并非少数人的专利,而是一项可以后天习得的技能。当你换一种视角,数字将不再是冰冷的符号,而是理解世界的语言。
这里有10本深度好书,它们将带你重塑逻辑,从零建立真正的数学能力。
1. 《学习之道》(A Mind for Numbers) - Barbara Oakley
如果你曾认为自己“没有数学细胞”,请先读这一本。作者曾是数学差生,后成为工程学教授。她利用神经科学揭示了“专注模式”与“发散模式”的切换策略。数学学习不在于死记硬背,而在于学会如何在大脑中构建知识块,并克服“理解的幻觉”。
2. 《魔鬼数学》(How Not to Be Wrong) - Jordan Ellenberg
数学不是课本上的习题,而是常识的延伸。作者通过彩票、投票制度和军事策略等案例,证明了数学推理如何保护我们免受错误逻辑的欺骗。它培养的是一种直觉:在信息碎片中识别出底层的数学结构。
3. 《怎样解题》(How to Solve It) - George Polya
自1945年出版以来,它一直是数学思维领域的圣经。波利亚提出了解决任何未知问题的四步法。这本书的核心在于“启发式方法”,教你如何在毫无头绪时提出正确的问题。学会提问,比学会计算更重要。
4. 《烂插画数学》(Math with Bad Drawings) - Ben Orlin
对于视觉学习者来说,公式往往是枯燥的。作者用幽默的笔触和简笔画,将统计、概率和几何转化为一个个生动的故事。它揭示了一个深刻的道理:数学的本质是关于“为什么”,而不是“怎么做”。
5. 《解题的艺术》(The Art of Problem Solving) - Richard Rusczyk
这套书超越了学校的标准课程,旨在培养真正的创造性思维。它不鼓励套用公式,而是引导你从底层逻辑开始构建解决方案。如果你想跳出“机械化刷题”的陷阱,像数学家一样思考,这是必经之路。
6. 《基础数学》(Basic Mathematics) - Serge Lang
由20世纪伟大的数学家编写,强调逻辑的严谨性而非机械记忆。它适合想要从头开始、系统性重建数学基础的成年人。虽然过程具有挑战性,但它能带给你大多数课程无法提供的深度理解。
7. 《数学是什么》(What Is Mathematics?) - Richard Courant & Herbert Robbins
这是一本探讨数学灵魂的著作。它将数论、几何和拓扑学展现为一个充满生命力的思想景观,而非规则的堆砌。它会彻底改变你对这门学科的认知:数学是对宇宙秩序的终极探索。
8. 《无限力量》(Infinite Powers) - Steven Strogatz
微积分常被视为数学学习的终点,但本书将其化为起点。作者用优美的语言拆解了微积分背后的直觉,展示了它是如何成为描述行星运动、医学影像和现代科技的通用语言。理解微积分,就是理解变化。
9. 《烧掉数学书》(Burn Math Class) - Jason Wilkes
这是一本具有“反叛精神”的作品。作者鼓励读者去“发明”数学,而不是被动接受权威给出的规则。它剥离了数学的神秘感,将其还原为一种人类可以根据自身逻辑不断重构的工具。
10. 《X的奇幻旅程》(The Joy of X) - Steven Strogatz
如果《无限力量》是深度探索,那么这本书就是一场轻快的巡礼。每个章节都以机智的方式讲解一个核心概念,从代数为什么用x到勾股定理的真谛。它旨在帮你找回被传统教育磨灭的、对数学之美的纯粹好奇心。
精进数学能力,本质上是寻找一种与世界沟通的新方式。天赋决定上限,但正确的路径决定了你能走多远。无论你选择从哪一本书开始,目标都是一致的:构建一种更清晰、更深邃的思维模型。
这种模拟公司部门的多 Agent 设计,本质上是在制造工程上的信息损耗。真正的生产级系统不靠角色扮演,而靠显式的外部状态和并行搜索空间。
很多人试图把 AI Agent 做成一家公司,给它分 PM、架构师和测试。这种模式在工程上是死路。
人类需要分工是因为注意力带宽有限。LLM 的瓶颈在于推理深度。给模型贴上角色标签会制造假边界,让它拒绝越界。一个被框死在测试岗位的 Agent 可能会无视架构层面的逻辑漏洞,因为它觉得那不属于它的职责范围。
更糟糕的是信息流转中的损耗。Agent 之间的交接传递的是结论,丢失了推理过程。这种单向的任务接力会让输出在长程任务中发生漂移。每个节点看起来都正确,整体却偏离了目标。
看 Anthropic 的做法。他们不谈角色扮演,谈的是 Context Engineering。核心在于建立显式的外部状态,比如 `progress.txt`。写的人和读的人是同一个灵魂,只是在不同的 session 里。信息不是被压缩传递的,而是被连续积累的。
多 Agent 的价值在于并行覆盖更大的搜索空间,而非单纯的分工协作。这更像是在进行广度优先搜索,而不是接力赛。架构不应该模仿人类组织,它应该更像一个思考者的多次草稿。