Meta正式宣布关停Horizon Worlds在VR头显上的服务,3月31日下架Quest商店,6月15日完全停止VR端运营,仅保留移动端。这个曾让扎克伯格不惜给公司改名的项目,最终只剩下类似Roblox的移动平台。Reddit网友对此展开热议,从技术投入到战略失误,从行业影响到未来展望,讨论相当热烈。
800亿美元能做什么?可以养活无数人,可以建立自己的太空计划,可以在全球贫困问题上砸出一个坑。但Meta选择把这笔钱投向了一个看起来像Wii Sports退化版的虚拟世界。
有网友贴出对比图:1997年的《Meridian 59》,1985年的《Habitat》,画面都比Horizon Worlds更有吸引力。更讽刺的是,VRChat这个小团队做出来的产品,无论是视觉表现还是用户活跃度,都完胜Meta的元宇宙。人们在VRChat里扮演动漫猫娘,探索魔法世界,而Horizon Worlds连让人想进去看一眼的欲望都激发不出来。
关于800亿美元的去向,有观点认为这是整个Reality Labs部门的总支出,包括Quest系列头显、Ray-Ban智能眼镜、Orion原型机等XR技术研发。但问题在于,Horizon Worlds作为“元宇宙”的旗舰产品,本该向世界展示这一切投入的意义。它失败的不仅是技术层面,更是概念和结构层面的彻底崩塌。
有内部人士透露,Meta拒绝雇佣艺术家和创意人才,任何“太独特”的想法都被否决。他们打造了一个无菌、毫无灵感的虚空,然后震惊于没人愿意使用。
扎克伯格显然把优先级搞反了。有评论一针见血:他把Priority #1到#4全部用来追踪和记录用户行为,直到意识到没人愿意长时间佩戴纯粹的间谍软件后,才匆忙加入一些图形内容作为事后补救。结果就是元宇宙。
技术层面的挑战同样严峻。VR的晕动症问题从未真正解决,长时间佩戴头显对大多数人来说过于疲惫。普通人不想为了社交而折腾特殊设备,更不想被隔绝在自己的环境之外。手机无缝融入生活,VR却要求你适应它的工作方式。手机可以随身携带,VR把你拴在原地。
有从业者回忆十年前在VR公司的经历,很快意识到大规模普及永远不会发生。原因很简单:普通人不想戴着笨重的头显,不想被打断多任务处理能力(比如刷手机),不想与周围环境隔离。Apple Vision Pro售价3500美元,却是个锁定严重的开发套件,连开发者都觉得鸡肋。Meta更开放一些,但头显首先是间谍软件,其次才是设备。
隐私问题更是无法回避的雷区。Meta的Ray-Ban眼镜收集所有镜头画面,发送给非洲的员工进行标注和AI训练。有网友提到,仅仅六小时内,他就遇到了极度私密的场景。这些时刻有真实价值,二三十年后回看会很珍贵,但必须与陌生人分享?这比任何侵入性想法都更令人不安。
关于800亿美元的流向,有网友计算:如果每年支付16万名工程师50万美元薪水,才能花掉这笔钱。显然大部分资金去向不明。有观点认为这是税务操作和创意会计的结果,80亿可能是虚报的数字,用来抵税。也有分析认为,扎克伯格需要向投资者展示某种增长假设,让股价继续上涨。Facebook已经见顶,必须找到新的营收来源。
2022年世界移动通信大会上,元宇宙还被宣传为“下一个大事件”。韩国电信运营商展示K-Pop演唱会的元宇宙版本,许多公司声称将拥有自己的元宇宙。但几个月后,OpenAI发布ChatGPT,真正的“下一个大事件”出现了,根本不是元宇宙。
扎克伯格曾表示,他预期AR/VR会先于AI起飞。换句话说,他没料到AI会突然爆发并进展如此迅速,以至于吞噬了整个科技叙事。如果ChatGPT晚一两年发布,他的赌注可能是对的。但历史没有如果。
有网友提到Meta在XR技术上的突破,比如仅用头显实现全身动作捕捉,而不需要穿笨重的动捕服。这些研究确实有价值,但被那个没人关心的垃圾游戏的负面新闻完全淹没了。Reality Labs的研发包括Codec Avatars、EMG腕带、Horizon OS等,很多技术领先行业。问题是,这一切都为了什么?
有行业人士认为,Meta仍在VR/AR领域投入巨大,多款新头显在路上。元宇宙失败并不意味着放弃整个XR赛道。但也有观点认为,最专注的公司全速冲向错误方向,现在似乎完全放弃承诺转向AI赌注,这种软弱让行业倒退十年。
VRChat的成功更像是对Meta的讽刺。这个平台近期峰值并发用户超过15万,预计2027年可能达到10万峰值(实际已远超预测)。它允许成人内容,完全由玩家驱动“经济”和脚本系统,人们在那里极富创造力地表达自己的癖好。任何严格限于PG级的平台,都极度受限。
有创作者提到Meta有个内部项目Vidyuu,试图用小团队和少量预算,在Horizon Worlds的废墟上重建VR元宇宙。讽刺的是,一个微型团队用零头预算,可能在Meta失败的地方取得成功。
最后,有条评论值得玩味:扎克伯格拼命想成为下一个乔布斯,但他只是个把Facebook从DARPA手里接过来的自大狂。Facebook的前身LifeLog项目关闭的时间,与Facebook成立的时间,几乎完全重合。2010年的电影《社交网络》在Facebook成立仅六年后就上映,这种速度在硅谷极为罕见。没有哪家类似成功的公司,能在六年内拍出高预算的阿伦·索金编剧好莱坞电影。
元宇宙的墓志铭或许可以这样写:800亿美元,一个改了公司名的赌注,最终证明普通人不想生活在VR反乌托邦里。价值不在那里,从来就不在。
特别预警|开发者请注意:使用OpenAI Codex 可能被攻击 | 原文
DARKNAVY 近日发现并报告了 OpenAI Codex 桌面端中一处严重的未授权代码执行漏洞。该漏洞绕过了 Codex 的默认权限限制,攻击者仅需诱导用户打开恶意构造的代码仓库/文件夹,即可在无需用户任何授权的情况下静默触发代码执行。该漏洞目前尚未修复,且社区已出现第三方复现案例,建议广大开发者与企业用户保持警惕,切勿随意打开未确认来源的代码仓库,以防源码等关键数据资产泄露。
DARKNAVY 近日发现并报告了 OpenAI Codex 桌面端中一处严重的未授权代码执行漏洞。该漏洞绕过了 Codex 的默认权限限制,攻击者仅需诱导用户打开恶意构造的代码仓库/文件夹,即可在无需用户任何授权的情况下静默触发代码执行。该漏洞目前尚未修复,且社区已出现第三方复现案例,建议广大开发者与企业用户保持警惕,切勿随意打开未确认来源的代码仓库,以防源码等关键数据资产泄露。
Anthropic的Claude发布了一个新功能,能用一句话生成交互式图表。有人发帖惊呼“又干掉了一批创业公司”,结果在社区被彻底“围剿”。一线从业者用尖刻的嘲讽和冷静的分析,给所有被AI热潮冲昏头脑的人上了一课。
故事从一个典型的“AI震撼体”帖子开始。
Anthropic的Claude模型更新了,能用短短六个单词的提示,直接生成可交互的图表。有人立刻发帖,标题大意是:Anthropic刚刚又消灭了一批创业公司,主要是在教育领域。
一个完美的AI颠覆叙事。如果这是真的,又是一个值得焦虑或亢奋的不眠之夜。
但帖子的评论区,画风却完全走向了另一个极端。点赞最高的评论只有一句冷冰冰的质问:“这个论坛是被付费的水军占领了吗?”下面是一片倒的冷嘲热讽:“图表制作创业公司要完蛋了!”“天啊,我的图表SaaS独角兽梦碎了。”
这已经不是简单的技术讨论,而是一场社区对“AI炒作”的集体反抗。愤怒的核心并非针对功能本身——没人否认这是个不错的UI改进——而是针对那种“一个新功能颠覆一个行业”的廉价夸张叙事。
一位用户一针见血地指出了问题的本质:“这个模式总是一样的——平台增加一个功能,‘薄价值’的套壳创业公司死掉。但那些在平台能力之上,构建了平台不会去复制的、有壁垒的公司会活下来。”如果你的整个公司价值就是“我们能做个图表”,那它的死亡不是因为AI,而是因为它本来就不该出生。
另一位评论者则点明了更深层的逻辑:真正的教育科技壁垒,是复杂的自适应学习系统、苏格拉底式的对话辅导,而不是显示一个图表。模型离做到这些还很远。
这场闹剧最终以一句精准的抱怨收尾:“感觉‘币圈’那帮人,已经差不多完全接管了LLM领域的炒作氛围。”当一个领域最前沿的实践者,开始集体厌恶对这个领域的过度神话时,或许才是它回归理性的开始。
最精彩的部分不是Claude的新功能,而是社区的反应。这像一面镜子,照出了AI行业当下最真实的分裂:一边是不断制造神话的“AI震撼体”,另一边是已经对此感到极度疲惫的一线从业者。真正的信号,往往藏在那些不耐烦的嘲讽里。
315晚会戳破的AI真相:你得到的“标准答案”,可能只是别人花钱买的广告
315晚会曝光了一条名为“GEO投毒”的灰色产业链,通过向大模型批量投喂虚假内容,将广告包装成“标准答案”。你对AI的每一次信任,都可能正在被明码标价。
一个根本不存在的智能手环,在被虚构出十余篇评测软文并发布后,短短两小时,就登上了多个主流AI大模型的推荐榜前列。
这不是科幻,是今年315晚会揭开的荒诞一幕。
我们倾向于相信AI的答案是客观、中立的,是对海量信息进行公正计算后的结果。但现实是,这种信任正在被一种叫“GEO”(生成式引擎优化)的技术系统性“投毒”。说白了,就是AI时代的SEO黑产,而且更加隐蔽和高效。
这条产业链的逻辑简单粗暴:客户付钱,服务商就负责“驯服AI”。他们通过自建的发稿平台,向全网海量投喂包含特定关键词的软文,污染AI模型赖以生存的信息源。由于AI需要不断抓取新信息,这种持续性的“洗脑”操作,能确保客户的产品稳定出现在AI的回答里,就像一个被植入的记忆。
一个问题词条,一个季度收费4000元,就能交付排名效果。而客户的产品,售价可以因此抬高近5倍。在这背后,是数百万抢夺一个手机推荐位的疯狂生意。
这不再是遥远的技术作恶,而是我们每一次提问时都可能踩中的陷阱。AI本身没有恶意,它只是个过于勤奋的学生,把被严重污染的互联网当成了唯一的教科书,然后一五一十地复述给我们。
真正的问题或许不是如何“净化”AI,而是当水源本身已经被污染,我们从井里打出的每一桶水,又要如何辨别?
我们用AI是为了绕过信息的噪音,结果AI本身成了噪音的最大扩音器。这更像一个关于人性的寓言,而不是技术问题。当信任可以被量化和操纵时,最稀缺的能力不再是获取信息,而是怀疑一切。
315晚会曝光了一条名为“GEO投毒”的灰色产业链,通过向大模型批量投喂虚假内容,将广告包装成“标准答案”。你对AI的每一次信任,都可能正在被明码标价。
一个根本不存在的智能手环,在被虚构出十余篇评测软文并发布后,短短两小时,就登上了多个主流AI大模型的推荐榜前列。
这不是科幻,是今年315晚会揭开的荒诞一幕。
我们倾向于相信AI的答案是客观、中立的,是对海量信息进行公正计算后的结果。但现实是,这种信任正在被一种叫“GEO”(生成式引擎优化)的技术系统性“投毒”。说白了,就是AI时代的SEO黑产,而且更加隐蔽和高效。
这条产业链的逻辑简单粗暴:客户付钱,服务商就负责“驯服AI”。他们通过自建的发稿平台,向全网海量投喂包含特定关键词的软文,污染AI模型赖以生存的信息源。由于AI需要不断抓取新信息,这种持续性的“洗脑”操作,能确保客户的产品稳定出现在AI的回答里,就像一个被植入的记忆。
一个问题词条,一个季度收费4000元,就能交付排名效果。而客户的产品,售价可以因此抬高近5倍。在这背后,是数百万抢夺一个手机推荐位的疯狂生意。
这不再是遥远的技术作恶,而是我们每一次提问时都可能踩中的陷阱。AI本身没有恶意,它只是个过于勤奋的学生,把被严重污染的互联网当成了唯一的教科书,然后一五一十地复述给我们。
真正的问题或许不是如何“净化”AI,而是当水源本身已经被污染,我们从井里打出的每一桶水,又要如何辨别?
我们用AI是为了绕过信息的噪音,结果AI本身成了噪音的最大扩音器。这更像一个关于人性的寓言,而不是技术问题。当信任可以被量化和操纵时,最稀缺的能力不再是获取信息,而是怀疑一切。
Sebastian Raschka整理了从2024年初到2026年春天发布的40多个开源大模型的架构图谱。这些模型几乎都在做同一件事:想办法让注意力机制便宜一点、快一点、跑得更长,同时保住性能。收敛的是设计语言(MoE、QK-Norm、滑窗注意力成了标配),分裂的是具体方案:Mamba混搭、线性注意力替换、MLA压缩KV——每家都在赌不同的技术路线。
这份图谱最有意思的地方,不是某个模型用了什么新招,而是它摊开来让你看见:现在做LLM,其实是在一个非常窄的设计空间里反复试探。
Llama 3还在坚持GQA加RoPE的经典搭配。DeepSeek V3一出来,MLA(Multi-head Latent Attention)加稠密前缀加共享专家这套组合拳就成了“大力出奇迹”的新标杆。然后你会看到整个2025年,几乎所有超过百亿参数的MoE模型——Llama 4 Maverick、Mistral Large 3、Kimi K2、GLM-5——都在学这套模板。
有观点认为,这不是趋同,是“抄作业”。但换个角度看,这恰恰说明大家都卡在同一个瓶颈上:长上下文推理的计算成本。标准注意力的复杂度是O(n²),扩到百万token级别根本撑不住。于是2026年开始,架构图谱出现了明显的“混搭”趋势。
Qwen3.5用了3:1的DeltaNet和普通注意力交替层。Kimi Linear干脆把大部分注意力层换成线性版本,只保留四分之一的MLA。NVIDIA的Nemotron 3 Nano更激进,用Mamba-2跑大部分层,注意力只在关键节点出现。
这些方案的共同点是:承认注意力机制不可能全程在线,得找个替代品分担压力。分歧在于,到底哪种替代品靠谱。有网友提到,线性注意力省显存但长依赖能力存疑;状态空间模型(SSM)速度快但训练难调;滑窗注意力简单粗暴但信息会丢。
另一个值得注意的细节是QK-Norm的普及速度。从Qwen3开始,几乎所有新模型都加了这个归一化层,不管是稠密模型还是MoE。OLMo 2甚至把整个规范化方案从pre-norm改成post-norm,就为了配合QK-Norm稳住训练。
这说明什么?说明大模型训练已经卷到“微操”阶段了。架构上的大创新(比如Transformer本身)几年没见过,现在拼的是各种小技巧的叠加效应。归一化放哪一层、RoPE用多少维度、专家路由的稀疏度怎么调——这些以前不太被重视的细节,现在成了决定成败的关键。
Step 3.5 Flash是个有意思的例外。它用多token预测(MTP-3)在训练和推理阶段都保持高吞吐量,196B的总参数、11B的激活参数,推理速度能和600多B的DeepSeek V3掰手腕。有人说这是“取巧”,我觉得更像是一种务实:既然架构创新空间有限,那就在工程实现上找机会。
最后说回这份图谱本身。它收录了从3B到1T参数的模型,每个都标注了关键设计选择、发布日期、配置文件链接。但真正有价值的不是这些信息本身,而是它让你意识到:LLM的架构演进,正在从“范式革命”滑向“增量优化”。
下一个突破会是什么?可能不在注意力机制本身,而在怎么把注意力、SSM、线性模型这些东西拼得更聪明。或者干脆跳出这个框架,找一个全新的序列建模方式。
用AI在周末做出一个“能用”的项目管理工具很容易,但两个用户同时编辑数据时系统就会悄无声息地崩溃。AI生成的代码完美符合你的要求,但它不会告诉你什么是乐观锁,也不会处理支付webhook重复触发导致的双重扣费。能跑的原型只占软件工程的1%,剩下99%的问题要等真实用户出现才会暴露。
有人周末用Claude Code搭了个项目管理工具,发推说“刚替代了Jira”。
本地测试,单用户,顺利通过。但当两个人同时编辑同一条记录,数据就悄无声息地损坏了。他们不知道什么是乐观锁,之前也从没需要知道。
这种过度自信才是最糟糕的部分。“上线前只需要调整几个地方”——你需要调整的那几个地方,就是产品本身。这就像打了个地基就说房子基本盖好了。
原型可能只占软件工程的1%。剩下99%是真实用户出现后才会遇到的:竞态条件、事务失败、会话在错误时刻过期、支付webhook触发两次导致重复扣费。AI没覆盖任何这些。它只会精确地构建你要求的东西。
Vibe coding确实有效。做个人工具、一次性脚本、不会给付费用户用的原型时,它又快又够用。但它有个硬天花板,一旦遇到真实场景就会显现。
代理工程(Agentic engineering)是另一个维度的能力。你不是在提示词里要代码,而是在分解问题、设计系统边界、写足够精确的规格说明让AI不跑偏。你要审查它构建的一切,因为它会犯那种只有你知道“正确”长什么样才能发现的错误。你要引导它,捕捉它遗漏的东西。
如果你不知道什么是分布式事务,AI救不了你。它会信心满满地生成有问题的代码,你要到上线后才会发现。软件开发最难的部分从来不是写最初那200行代码。
有观点认为,Slack处理通知的方式就是个经典案例。登录和注册看起来简单,但加上2FA、Google和Apple登录、移动端、OAuth、限流、垃圾攻击防护和SSO后,很快就变成噩梦。
有网友提到:“原型基本就是概念验证,证明理想路径存在。生产环境是证明所有非理想路径不会害死你。AI瞬间给你前者,让人忘了后者才是99%的工作。”
另一个评论一针见血:“AI加速了本来就简单的部分。困难的部分依然困难——竞态条件、重复扣费的webhook、没人想到的边界情况。”
那些宣称周末就替代了整个SaaS解决方案的人,已经登上了“愚昧之巅”。原型能跑和产品能用,完全是两码事。
“开快车仍然需要知道怎么掌方向盘。引擎不是问题所在。”
软件工程依然很难,创业依然很难。我们只是有了更强大的工具来加速这两件事而已。