有人说用“vibe coding”(凭感觉用AI写代码)能直接做出上线的生产级应用,这是不现实的。生产环境的软件必然复杂,需要大量代码的编写和维护,单靠写prompt根本撑不起。

AI确实能帮你快速生成代码片段,甚至能做一些简单小工具、小项目,或者快速搭建原型,提升开发效率。但当涉及到真正的生产级应用,边界条件、集成、安全、性能和稳定性等问题,都需要工程师的严谨设计、测试和持续维护。

那些说“vibe coding”能做出SAP、Salesforce这样的大型系统,显然是夸张了。相反,经验丰富的工程师利用AI辅助,能快速完成70%-80%的代码工作,但他们依然需要深入理解业务、规范开发流程、严格测试和持续重构。

成功案例确实存在,比如一些小型APP或合规项目用AI辅助开发并上线,但这更多是建立在开发者本身具备扎实的基础和工程能力上。完全靠AI和prompt从零开始,几乎不可能保证产品质量和稳定性。

AI是加速器,不是替代品。真正的生产级软件开发,离不开架构设计、代码审查、测试覆盖和持续迭代。那些只靠prompt写代码,却指望一劳永逸的人,注定会碰壁。

生产级代码的核心,是对复杂性的掌控,而不是对AI的盲目信任。AI帮你写代码,工程师帮你撑起整个系统。
现代开发离不开终端和浏览器的频繁切换:查文档、预览文件、监控系统、调用 AI 助手等。

Wave Terminal
是一款开源跨平台终端,将传统终端功能与图形化操作完美结合,支持文件预览、网页浏览和智能 AI 辅助,所有操作都能在终端内完成,极大提升工作流效率。

Wave 支持 macOS、Windows 和 Linux,功能丰富包括:

- 灵活拖拽布局,管理多个终端、编辑器、浏览器和 AI 助手窗口;
- 内置编辑器支持远程文件编辑和语法高亮;
- 文件预览支持图片、视频、PDF、Markdown、CSV 等多种格式;
- AI 助手能理解终端上下文,辅助调试和文件操作;
- 远程连接一键直达,兼顾安全的凭证管理;
- 丰富自定义主题及命令行工作空间管理。
DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning

DeepSeekMath-V2代表了数学推理领域的重要突破。当前大型语言模型虽然在数学竞赛中表现优异,但仅靠最终答案的准确性无法保证推理过程的严谨性。DeepSeekMath-V2提出了“自我验证”机制,训练出一个高精度、可信赖的定理证明验证器,并以此作为奖励模型,推动生成器不断发现并修正自身证明中的错误,提升推理质量。

该方法不仅解决了传统强化学习模型忽视推理过程的问题,还通过扩大验证计算能力,自动标注新的复杂证明,持续增强验证器的能力。最终,DeepSeekMath-V2在IMO 2025、CMO 2024和Putnam 2024等顶级竞赛中取得了金牌水平的成绩,Putnam得分高达118/120,显示出强大的数学推理和证明能力。

这一成果表明,迈向自我验证的数学推理是提升AI数学能力的关键方向。它不仅推动了数学AI系统在科学研究中的应用潜力,也为解决开放性数学难题提供了新的思路和工具。尽管仍有挑战,DeepSeekMath-V2为未来可解释、可靠的数学AI奠定了坚实基础。
LaurieWired分享了一个实用技巧:通过合理格式化,你可以把普通的消费级SSD“升级”为接近企业级的耐用度,只需牺牲约5%的容量,就能获得约10倍的写入寿命提升。| 帖子 | #技巧

以Crucial MX500 1TB为例,默认耐用度是0.2 DWPD(每天写入全盘0.2次),而同样闪存颗粒的Micron 5300 PRO 960GB企业级SSD耐用度是1.5 DWPD。企业级SSD很大程度上其实是超额预留空间更多的消费盘,厂商刻意用更多预留区来换取更高耐用度,因为消费者通常偏好更大容量,却不太关注寿命。

Laurie的做法是新买SSD后,只格式化90%-95%的空间,留出一部分不分区不使用,等于人为增加了过度预留区。对于视频编辑等写入量巨大的场景,这样的空间换耐用度的策略非常划算,能显著延长盘的寿命。

其他网友补充指出,很多消费级SSD会在使用超过约50%容量时,从快速的SLC缓存模式切换到更慢的TLC或QLC,导致性能和延迟下降。留足空闲空间不仅延长寿命,也能保持性能稳定。还有人提醒,企业级SSD的电源断电保护和固件优化也更优秀,适合更苛刻的服务器环境。

这背后反映的是存储设计的一个核心原则:容量和耐用度经常是此消彼长的关系。对大多数普通用户来说,过度预留带来的耐用提升可能用不上,但对专业用户和重负载场景,合理减少可用容量换取耐用度,是一条高效且省钱的“升级”路径。

对消费者来说,理解SSD背后的工作机制和厂商策略,能帮助更聪明地使用硬盘,避免性能骤降和过早损耗。未来存储设备设计若能更开放、更易拆卸替换,像企业级的U.2、EDSFF接口那样,将大幅提升用户体验和设备寿命
Gemini 现在能生成完全互动的图像,覆盖任何主题。只需选中图中任意区域,系统即可给出详细解读,成为极其强大的学习工具。相比传统枯燥的文本,互动图像让复杂知识一目了然,极大提升了学习效率和体验。| 帖子

这一技术不仅适合学生,也能改变技术文档和专业资料的呈现方式。想象一下,开发者可以通过点击代码架构图,快速理解项目结构,无需翻阅厚重的说明书;博物馆、科研机构也能借此打造沉浸式的虚拟展览和深度探讨空间。

Gemini通过即时生成“微型网站”模式,AI不再只是引流传统网页,而是在用户需求点上直接构建内容,彻底颠覆信息获取方式。尽管目前交互功能仍有些限制,部分主题支持有限,但这已是未来教育和知识传播的关键方向。

Google的这项创新悄然推动着学习方式的变革,传统教科书开始显得过时。未来,知识不只是读出来,更是“点”出来,触摸出来,深度理解出来。
Ilya Shabanov分享了一个高效写作硕士论文的方法,强调AI作为辅助工具,而非代写,帮助克服写作焦虑,理清逻辑,迅速形成初稿:

1. 收集已有材料:上传自己的旧稿、笔记,或者领域内的论文,甚至写个粗略大纲。
2. 梳理叙述结构:让AI帮你用一句五词短句总结每段内容,调整顺序,掌控整体故事线。
3. 拓展大纲:让AI把每句话展开成段落提纲,包括主题句、数条支持观点及总结句,形成逻辑清晰的蓝图。
4. 引入真实研究:用工具检索相关文献,提炼关键事实,确保内容有据可依。
5. 生成正式段落:将核实过的事实输入AI,产出标准、引用齐全的学术段落,逐段完成完整初稿。

这一流程让写作不再从零开始,减少拖延和迷茫,真正做到“你掌控叙述,AI帮你表达”,保持原创思想和学术诚信。

关于伦理,Shabanov认为:AI只是帮你梳理和表达思想,内容和方向由你决定,且每一步都经过事实核查,最终成果属于你自己。质疑者指出,写作过程中的思考与挣扎本身就是学习的关键,完全依赖AI可能削弱理解和原创性。

这场讨论反映了学术写作正迎来AI辅助的新范式:如何平衡效率与学术诚实,如何在利用AI带来的便利时,保持深度思考和知识内化,是每个学者必须认真面对的问题。
帖子 | 你不一定需要传统网络配置就能连接Linux虚拟机。

无需IP地址,无需SSH密钥,无需防火墙规则,也不必配置路由表。

如果虚拟机和宿主机在同一台物理机器上,TCP/IP协议反而成了多余负担。

这就是AF_VSOCK——Linux内核中的一种特殊地址族,专为Hypervisor和虚拟机间通信设计。它像一根穿透虚拟机墙壁的“管道”,不再用IP地址,而是用Context ID(CID)标识:宿主机通常是CID 2,虚拟机获得唯一CID,如3。内核负责转发数据,速度极快。

作者正在做一个演示项目,展示如何用vsock跑高性能gRPC,数据不经过任何网络包,延迟几乎为零。服务端跑在虚拟机里(C++),客户端跑在宿主机上。后续会开源代码并写深度教程,欢迎关注。

为什么gRPC+vsock这么酷?
- 极低延迟
- 无需IP地址,省去DHCP、端口转发、防火墙规则配置
- 无网络包暴露,更安全,几乎无外部攻击面

vsock让你能在相对封闭的环境里发送结构化请求,这为构建安全、可靠的“密闭盒子”应用打开了新思路。

有朋友提到,串口也能做虚拟机通信,但串口缺乏高层API支持,不易集成现代框架。vsock则更自然地适配gRPC这类高级通信模式。

需要澄清的是,vsock并非模拟TCP,它是另一种通信技术,但使用体验很像TCP socket,端口号(如9999)仍然是通用的服务标识符。

性能上,vsock减少了网络协议栈开销,适合大数据量、高频交互,期待未来能看到更多性能对比数据。

它支持KVM,但理论上非KVM虚拟化环境也能用,KVM只是性能加速器。

vsock不仅被QEMU、Xen支持,还有nc-vsock、xpra等实用工具,应用范围正在逐步扩大。

安全方面,因无外部网络流量,攻击面更小,但仍需妥善管理虚拟机间通信权限。

这是一条通向更简洁、高效、安全虚拟机通信的道路,值得系统开发者和运维工程师深入了解和尝试。
用500行裸C++实现软件渲染

“在这系列文章中,我的目标是通过从零开始编写一个简化版的克隆,展示OpenGL、Vulkan、Metal和DirectX是如何工作的。令人惊讶的是,许多人在学习3D图形API的初期就遇到了困难。”
Vibe Coding 最佳实践

1. 清晰规划比盲目 “让 AI 自由发挥” 更重要

1) “Planning is everything” ——不要让 AI 自己随意规划整个项目,否则代码会混乱。
2) 最开始要做一个 Game Design Document(GDD,或者如果是应用的话,就是产品需求文档 PRD),以 Markdown 格式写清你的构想。
3) 之后要让 AI 基于这个设计文档 +技术选型,生成一个 实现计划(implementation plan),而不是直接让 AI开始写代码。
4) 实现计划里的每一步都应该是小粒度,并且附带测试,这样每次 AI 写出的功能都能被验证。

2. 维持上下文一致性:用 Memory Bank(记忆库)

1) 建议创建一个 memory-bank 文件夹,把 GDD、tech-stack、implementation plan、progress、architecture 等重要文档都放进去。
2) AI 在生成代码时 “总是” 读取关键规则 /文档(例如 architecture.md, game-design-document.md),以保证它写出来的东西是基于你当前的整体结构,而不是零散乱写。
3) 你还应该在 progress.md 中记录每一步完成情况,在 architecture.md 中补充每个文件或者模块的架构解释。这样未来回顾或让 AI 继续开发时,会更清晰。

3. 迭代 + 验证 + 提交

1)用 AI 写第一步(实现计划里 Step 1)之后,不要马上继续下一步,而是让你自己运行测试:确认 AI 写的代码是否满足预期。
2)每完成一个 step,就 commit 一次。这样可以保留历史,也便于后退/修正。
3)每一步都开启新的对话(新的 Chat /新上下文)让 AI “重新读 memory-bank + progress 再继续下一步”。这种方式能避免上下文混乱。

4. 为新特性写 feature-specific 文档

1)在基础框架(base game / app)完成后,想加新功能(特效、声音、UI …)时,不要直接命令 AI 写代码,而是为每个大功能写一个 `feature-implementation.md`:列出小步骤 +测试。
2)然后让 AI 逐步实现这些 feature,保持明确、模块化、可测试。

5. 错误处理 & 卡住时的方法

1)如果 AI 生成功能出错,用 Claude Code 的 /rewind 回到上一步重新尝试。
2)对于 JavaScript 错误,建议把控制台(console)日志/错误复制到 VSCode,让 AI 帮你分析。
3)如果问题很复杂、卡住了,可以把整个 repo 做成一个大文件(用类似 RepoPrompt / uithub 的方式),然后请 AI 从整体视图帮你诊断。

6. 优化 AI 工具使用

1)对于小改动(refactor /小调整等),建议使用较小 /中等能力的模型(如 GPT-5 medium)进行,以节省成本,同时保持响应质量。
2)配合使用 CLI 和 VSCode:既可以在命令行里运行 Codex CLI / Claude Code 来看 diff,又可以通过 VSCode 插件维持开发节奏。
3)为 Claude Code 或 Codex CLI 自定义命令,比如 `/explain $arguments`:先让模型理解某个模块 /变量 /逻辑,然后再让它基于理解做任务,这样能提升生成质量。
4)频繁清除对话上下文(如 /clear 或 `/compact`),避免旧对话内容影响新的 prompt。

7. 风险意识与权衡

1)虽然 vibe coding 鼓励快速产出,但这种方式有潜在风险:AI 写出的代码可能结构混乱、未来维护困难。社区里有人提到 “代码混乱到调试噩梦”。
2)有人指出 AI 写出的逻辑有 bug(如并发问题、不正确的 API 调用等),这些 bug 很难被察觉,因为代码“看起来对”。
3)如果项目到后期进入生产阶段(或用户较多时),最好考虑重构(vibe-refactor):有人在社区里专门提供这种服务,把用 AI 快速写出的 “原型 / β 版本” 变得更健壮。
4)保持适度的审查机制:虽然是 vibe coding,但定期审查代码、做重构、建立测试习惯非常重要。

8. 持续反馈与学习

1)每次迭代完成后,不仅记录 progress,还记录 architecture 的变动和思考,这样下次生成代码时 AI 有 “记忆” 可用。
2)如果你卡住了,或者某些 prompt /策略不成功,可以向社区求助(例如 Reddit 的 r/vibecoding)。很多人都在分享他们失败 +成功的经验。
3)建议保持小步快跑 — 用 AI 快速原型验证想法,不要一次把所有功能堆进去。发现方向对了再慢慢加。

9. 综合心得

1)vibe coding 是一个强大的快速原型工具:它可以让你很迅速地把想法验证出来。但它不应该取代所有传统的软件工程流程,尤其是当你追求长期维护或扩大规模时。
2)上下文管理非常关键:记忆库(memory-bank) + 明确规则(Always read architecture / GDD)是维持项目健康的重要支撑。
3)测试不可省略:每一步有测试、每个 feature 都拆开实现并验证,是保证生成代码可用性的关键。
4)灵活结合 AI 与人类判断:AI 写的东西非常有用,但人类需要持续审查、校正、重构。
5)社区很有参考价值:阅读其他 vibe coder 的经验(比如他们卡住了什么、重构怎么做)对自己的实践非常有帮助。
从「写代码」到「验代码」:AI 搭档写走 3 年,我踩出来的协作路线图 | blog

"我叫厉辉,网名 yousa。在大厂写了很多年后端,也在开源社区混过几轮(当过 Apache 项目贡献者和 CNCF Ambassador)。从 2022 年开始,我几乎每天都在和各种 AI Coding 工具打交道:从 VS Code 里的 Copilot,到 Cursor、Windsurf,再到 Codex、Trae SOLO 这一类更「重」的 Agent。

这篇文章写给已经在或准备在真实生产项目里用 AI Coding 的后端 / 全栈工程师和技术管理者。

它不会教你「按钮在哪里」「哪个 prompt 最神」,而是想在大约 15 分钟里,帮你搞清楚三件事:

哪些任务交给 AI 最「划算」
怎么让项目本身变得更「AI 友好」,提高一次命中率
当生成不再是瓶颈时,工程师应该如何设计验证流程,把时间花在真正值钱的地方。"
Back to Top