《DDIA 逐章精读》小册 | #手册

“DDIA 一本高度纲要性的书,因此大多数程序员只闻其名,但真的一读总感觉像空中楼阁一般,不得实感。我工作以来的的方向定位是“大规模数据系统”,既做过云上的海量存储——对象存储、也做过经典 DBMS——图数据库、也做过大规模的数据处理。因此对书中说的各个领域都有所涉猎,为了让大家能更好的理解这本好书,结合我多年的实践经验,做一些扩展,通过例子和比喻帮大家弥合理论到实感的鸿沟。

在理解英文原文的基础上,对每一章用中文重新组织,作为每次分享的文字稿,在此集结为一本开源小册,并附上每章分享的录屏视频,希望可以对有需要的同学有所帮助。”
Claude Opus 4.5 的提示词(Prompting)实战指南 | 帖子 | #指南

为了帮助大家更好地驾驭新模型,我们的研究与应用团队经过大量内部测试和“折腾”,总结了一份针对 Claude Opus 4.5 的提示词(Prompting)实战指南。

以下是我们目前摸索出的“独家秘籍”,教你如何榨干它的潜能,获得最佳效果:

1. 用好 effort 参数,想多聪明你说了算

新的 effort(努力值)参数简直是个神器。它能让你大体控制 Claude 在输出内容时消耗多少算力。这就好比你有了一个调节旋钮:你可以通过它,在“智能程度”与“成本/响应速度”之间做一个权衡 (向左转省钱快出结果,向右转费点时间但智商爆表)。

这个参数对所有类型的 Token (AI 处理文本的最小单位,相当于单词或汉字) 都有效,包括模型的思考过程、正式回复以及工具调用。

2. 别太凶,温柔点:调整工具触发率

你可能会发现工具触发的频率变了。这是因为 Opus 4.5 对系统提示词(System Prompts)的反应更加灵敏。

以前为了防止它“偷懒”不调用工具 (Undertriggering,即触发不足),你的旧提示词可能使用过非常激进或严厉的语言。但在新版本里,这样反而会导致它变得太敏感,动不动就乱用工具 (Overtriggering,即触发过度)。

所以,是时候把语气放缓了。将原来那种 “CRITICAL: You MUST use this tool”(严重警告:你必须使用此工具)的命令,改成平和的 “Use this tool when...”(当出现……情况时,使用此工具)就可以了。

3. 防止“加戏”:避免过度设计

Opus 4.5 有时候会有点“想太多”,导致过度设计 (Overengineer,即把简单问题复杂化),比如凭空增加不必要的文件或者搞一堆复杂的抽象层。

要解决这个问题,你得在提示词里把话说明白,比如加上:“Only make changes that are directly requested. Keep solutions simple and focused.”(只修改我明确要求的部分。保持解决方案简洁、聚焦。)

4. 拒绝“云写代码”:强制它先读后写

在探索代码库时,Opus 4.5 有时会表现得比较保守。

如果你发现它没看代码就直接瞎提修改建议,请直接给它下死命令:“ALWAYS read and understand relevant files before proposing edits. Do not speculate about code you have not inspected.”(在提出修改建议前,必须总是先阅读并理解相关文件。绝对不要对自己没检查过的代码进行猜测。)

5. 眼神更好了:视觉能力大升级

Opus 4.5 的视觉能力有了显著提升,处理图像和提取数据的能力更强了,尤其是在同时处理多张图片的时候。

对于那些信息量巨大、密密麻麻的图片 (Dense Images),教你个绝招:给它配备一个裁剪工具,让它能像用放大镜一样“放大”并聚焦于局部细节。在我们的测试评估中,这一招能稳定提升它的表现。

如果你想快速应用上述所有技巧,将你的应用无缝迁移到 Opus 4.5,可以直接使用我们制作的这个 Claude Code 迁移插件
Gemini CLI Tips & Tricks:本指南涵盖了约30个专业技巧,帮你高效使用 Gemini CLI 进行智能编程。| #指南

是一款开源的 AI 助手,将 Google 的 Gemini 模型的强大功能直接带入你的终端。它作为一个对话式的“智能”命令行工具工作——这意味着它能够推理你的请求、选择工具(如执行 shell 命令或编辑文件),并执行多步计划以帮助你的开发工作流程。

提示 1:使用 GEMINI.md 以保持持久上下文
提示 2:创建自定义斜杠命令
提示 3:通过您的自有 MCP 服务器扩展 Gemini
提示 4:利用记忆添加和回忆
提示 5:使用检查点和 /restore 作为撤销按钮
提示 6:读取 Google Docs、Sheets 等
提示 7:使用 @ 引用文件和图像以明确上下文
提示 8:动态创建工具(让 Gemini 构建助手)
提示 9:使用 Gemini CLI 进行系统故障排除和配置
提示 10:YOLO 模式 - 自动批准工具操作(谨慎使用)
提示 11:无头和脚本模式(在后台运行 Gemini CLI)
提示 12:保存并恢复聊天会话
提示 13:多目录工作空间 - 一个 Gemini,多个文件夹
提示 14:使用 AI 协助整理和清理文件
提示 15:压缩长对话以保持上下文
提示 16:通过 ! 传递 Shell 命令(与终端对话)
提示 17:将每个 CLI 工具视为潜在的 Gemini 工具
提示 18:利用多模态 AI - 让 Gemini 查看图像等
提示 19:自定义 PATH(以及工具可用性)以提高稳定性
提示 20:通过令牌缓存和统计信息跟踪和减少令牌消耗
提示 21:使用 /copy 进行快速剪贴板复制
提示 22:掌握 Ctrl+C 用于 Shell 模式和退出
提示 23:通过 settings.json 自定义 Gemini CLI
提示 24:利用 IDE 集成(VS Code)获取上下文和差异
提示 25:使用 Gemini CLI GitHub Action 自动化仓库任务
提示 26:启用遥测以获取洞察和可观察性
提示 27:关注路线图(背景代理等)
提示 28:通过扩展来扩展 Gemini CLI
提示 29:柯基模式彩蛋 🐕
Linux Kernel Explorer:在线看&学习Linux源码。左侧是导航,中间是源码,右侧是教程和练习。(教程内容不多)| #Linux
Tiktoken with ARM64 SIMD

作者成功在纯C中重新实现了OpenAI的tiktoken库,并通过ARM64 SIMD指令集优化,实现了显著性能提升:

英文文本处理速度达6100万token/秒(单核无GPU)
相比Python tiktoken平均加速6.8-17.6倍
内存占用约22MB,加载时间7ms
探索操作系统:69天C语言深度实现 |代码库 | #c语言

本仓库是一次操作系统概念的探索之旅,通过C语言进行实践性实现。每天聚焦一个特定主题,结合理论讲解与动手编码实践。
一位前谷歌DeepMind研究员直言,Gemini 3虽然在网页开发上表现不错,但在真正的编码工作中却常显“为测试而优化”,缺乏面对复杂真实项目时的稳定性和适应力。它在演示中光鲜亮丽,却难以胜任“战场”上的各种边缘场景。

许多开发者的共鸣在于:真实编码远比基准测试复杂。模糊需求、遗留代码、依赖地狱和异常逻辑才是日常。Gemini 3在这些方面表现不佳,甚至出现误删API、无法处理文档、过度冗长等问题。相较之下,Claude、Opus等模型在实际使用中更靠谱,能更好地完成开发者需求,减少反复调试的负担。

这反映出业界普遍的“基准测试与实际应用脱节”问题。模型往往为了在指定任务中拿高分而“走捷径”,缺乏对真实复杂环境的理解和适应能力。真正有价值的AI助手,应能深入代码上下文,理解含糊需求,适应多变场景,甚至能通过持续测试和反馈不断自我进化。

总结来看,Gemini 3虽有潜力,但仍需从“演示王”向“实战王”转变。开发者应理性看待各种AI工具,结合自身项目实际反复验证,而非盲目追随营销榜单。未来的AI编程助手,必然是多模型优势互补、不断学习进化的智能协作体,才能真正助力复杂软件开发的突破。
科研工作中,整合多领域工具进行复杂分析常常繁琐耗时。Claude Scientific Skills 提供一套开箱即用的科学技能集合,支持生物信息学、化学信息学、临床研究、材料科学等多学科,助力将 Claude AI 转变成科研助理,完成多步骤科学计算和数据处理。

涵盖内容包括:
- 直接调用26+科学数据库(PubMed、UniProt、ChEMBL等)
- 52+主流科研Python包(RDKit、Scanpy、PyTorch Lightning等)
- 15+科研平台集成(Benchling、DNAnexus)
- 20+数据分析与文献写作工具

支持快速搭建从基因组学分析、药物筛选到临床变异解读、系统生物学网络构建的复杂科研流程。文档完善,提供丰富示例与最佳实践,支持多平台部署,适合科研人员和机构提升研究效率。

主要特点:
- 一键安装,自动调用相关技能,无需繁琐配置
- 跨学科全覆盖,助力多模态多步骤科研任务
- 持续更新,社区活跃,支持企业级使用
Kimi.ai 推出全新Agentic Slides,搭载Nano Banana Pro,助你轻松将研究论文、市场信息、建筑图纸等多种文件转化为专业演示文稿。功能亮点包括:

- 智能搜索引擎Kimi K2,快速精准定位内容
- 多格式支持(PDF、图片、文档等)一键转幻灯片
- 完全可编辑,支持PPTX导出,方便二次创作
- 设计师级视觉效果,自动生成信息图表与插画

感恩节特别福利:限时48小时免费无限制试用,零门槛体验未来演示新方式。用户反馈显示视觉效果惊艳,操作简便,帮助大幅提升工作效率和视觉冲击力。部分用户提出对图表编辑灵活性和API开放的期待,也体现出市场对更深度集成和定制的需求。
storm 运行了24个Claude代码代理并行工作,完美无缝。他用GitHub作为协调层,处理代码评审、CI检查和规划,打造了高效协作闭环。| 帖子

选择24个实例并非随意,而是基于任务分工:工程师、审阅者、规划者等多角色协同,避免重复劳动。他强调,平行化关键在于构建流程,让人类只在关键决策介入,其他环节全部自动化,层层递进,体现深厚的架构设计功力。

尽管规模庞大,系统依然稳定,得益于反复调优提示和完善的测试机制。虽然偶尔会遇到服务限制或停机,但整体表现依旧流畅。

许多人关心成本和限额,storm并未具体透露,但暗示需要账户额度提升和合理调度,才能支撑如此大规模运算。使用GitHub不仅仅是代码存储,更是规划、复核和任务分配的“智脑”,这点被不少同行称赞为“天才”。

从这套方案看,未来多代理系统的潜力巨大:自动化能大幅释放人力,提升开发效率,同时也提出了新的挑战——如何避免冲突、保证目标一致性,以及合理控制成本。

这不仅是技术实现,更是对协作方式的深刻变革。正如storm所说,自动化不是简单的“按键”,而是多层次、细致入微的工程艺术。
DeepScholar是由伯克利和斯坦福联合研发的开放式深度研究系统,专注于高效处理数百篇学术文章,实现长文献综述的自动合成。DeepScholar不仅在研究合成质量上与OpenAI的同类系统不相上下,而且速度提升了近2倍,极大降低了时间和成本。

DeepScholar的核心技术依托于LOTUS,这是一个开源的语义查询引擎,采用AI驱动的语义操作符,能高效批量处理海量文献。团队围绕真实科研写作需求设计,特别是论文相关工作综述部分,平均需要处理20多篇文献,DeepScholar能精准完成这一复杂任务。

系统综合评估涵盖知识合成质量、检索准确度及结果可验证性,表现优异。虽然目前面临访问高峰带来的稳定性挑战,开发团队积极修复,欢迎社区贡献和反馈。

同时,项目开源了基准测试数据集与代码,及LOTUS引擎,助力科研与开发者打造更强大的研究辅助工具。公开的排行榜和论文为行业提供了参考标准和发展方向。

这一创新不仅展示了AI在学术研究领域的巨大潜力,也启示我们:面对日益爆炸的信息量,智能筛选和高质量合成是未来科研的关键。DeepScholar证明,技术进步能让学术知识更快、更准确、更易获取,推动科学发现的速度和深度。
Continuous batching:本文梳理了大型语言模型(LLM)推理效率的核心技术——连续批量处理(Continuous Batching)。从基础的注意力机制和KV缓存出发,逐步揭示了如何优化计算吞吐量,提升多用户同时服务的性能。

首先,LLM是通过预测下一个词元(token)实现文本生成的,但每生成一个词都需大量计算,尤其是注意力机制中计算查询(Q)、键(K)、值(V)三者之间的复杂关系,复杂度随序列长度平方增长。为了高效推理,引入了KV缓存:已计算过的键值对被存储,生成新词时无需重复计算,大幅减少计算量。

面对长提示词(prompt)超出显存限制,模型采用分块预填充(Chunked Prefill)策略,分批处理输入,结合KV缓存保持上下文信息完整,解决了显存瓶颈。

传统批量处理要求所有输入长度一致,需大量补齐(padding),导致资源浪费和效率下降。连续批处理突破这一限制,将多个请求的词元按序拼接,利用注意力掩码控制不同句子间不互相干扰,实现“锯齿形”批量处理(ragged batching)。结合动态调度,将已完成的请求即时替换为新请求,保持GPU利用率最大化。

总结来说,连续批处理整合了KV缓存、分块预填充和锯齿形批处理三大技术,极大提升了模型推理的吞吐量和效率,使得像ChatGPT这样的大规模服务能高效支持成千上万的并发用户。

这不仅是对模型计算逻辑的优化,更是架构设计上的创新,体现了在有限资源下满足海量实时请求的智慧。未来,随着缓存管理和调度策略的进一步演进,LLM推理的效率还将持续提升。
Back to Top