强化学习教程:Hands-On Modern RL,现代强化学习实战指南:涵盖经典控制、LLM 后训练、RLVR 与多模态智能体 | 在线阅读 | github | #电子书 #指南 #教程

2016 年,AlphaGo 击败李世石,强化学习第一次震撼公众。2022 年 ChatGPT 发布,人们发现 RL 正是让大语言模型从"能说话"变成"说好话"的关键技术。从 DeepSeek-R1 到各类开源对齐模型,RLHF、DPO、GRPO 等算法已经深刻地重塑了整个 AI 行业。

然而,市面上的学习资源严重滞后于行业实践。主流教程对 RL 一笔带过,专门的 RL 教材又停留在传统框架,对 PPO、DPO、GRPO 只字不提。一个想要理解 RLHF 流程的工程师,不得不在经典教材和最新论文之间艰难地自行搭建桥梁。我们着手写这本书,就是为了填补这道鸿沟。

这本书代表了我们的尝试——让现代强化学习变得平易近人,用代码、数学和直觉的融合来教会人们核心概念。

一种"先动手、后理论"的学习路径

许多教科书先讲完 MDP 的全部性质,再讲贝尔曼方程,最后才允许你碰一行代码。在这本书中,你将从第一章的第一行代码开始训练一个智能体。当你亲眼看到 CartPole 的小车从摇摇晃晃到稳稳站立,亲手用 DPO 让一个大模型学会"说好话",再回过头理解背后的数学时,学习过程会更加自然,理解也会更加持久。

每一章都遵循一个四步循环:先给你一段可运行的代码,让你获得直接经验;然后引导你关注训练曲线上的关键现象;接着在具备直觉的基础上讲解数学原理;最后用理论重新解读之前的现象,完成从直觉到形式化的闭环。

本书的每一章都包含可运行的代码示例。强化学习中的许多直觉只能通过试错来建立——调一调学习率,观察 reward 曲线的振荡;改一改 clip 参数,看看策略是否会崩溃。这些经验无法仅靠阅读公式来获得。

本书面向学生、工程师和研究人员。不需要过往的深度学习或机器学习背景,只需基本的 Python 编程能力、线性代数(矩阵运算)、微积分(偏导数、链式法则)和概率论基础(期望、条件概率)。大多数时候,我们会优先考虑直觉和想法,而不是数学的严谨性。
一份面向工程设计的人形机器人指南,很多人形机器人的硬件/物理学知识 | blog | #指南

“一个类人机器人每小时大约走 5,000 步。每一步都会将相当于身体重量 2–3 倍的冲击力传递到腿部执行器——偶尔承受这样的力还可以,但当这种冲击连续数千次而不间断时,就会造成破坏。这种无情的工作循环正是大多数类人机器人执行器失效的原因,也是幸存者最终都采用相同工程解决方案的原因。

关键在于,因为这种冲击发生的速度快于任何传感器循环的反应时间(亚毫秒级),执行器必须在机械上能够‘让步’(可反向驱动性),以吸收能量。如果执行器在机械上是自锁的——如大多数工业用滚珠丝杠——齿轮箱就必须吸收 100% 的冲击能量,从而导致瞬间剪切失效。”
Claude 最强进化指南:30 个必装 MCP 服务全解析 | 推文 | #指南

很多人把 Claude 当成加强版搜索框,这其实是最大的浪费。

你和顶级开发者的差距不在模型本身,而在 MCP(模型上下文协议)。没有 MCP,Claude 只是一个满腹经纶却无法出门的职员;有了 MCP,它就拥有了直接操作数据库、管理 GitHub、发送 Slack 消息和部署代码的双手。

以下是让 Claude 强力进化的 30 个顶级 MCP 服务及核心逻辑。

1. 认知升级:技能(Skills)与 MCP 的本质区别

很多人分不清这两者。
技能教 Claude 如何思考(How to think)。它是方法论,比如如何写 PRD、如何做测试驱动开发。
MCP 给 Claude 访问权限(Where to act)。它是连接器,是通往 GitHub、Slack、数据库的桥梁。
有技能没 MCP,是空有理论的专家,进不去公司大门;有 MCP 没技能,是拥有所有钥匙的保安,却不知道该干什么。顶级玩家永远是两者兼备。

2. 资源地图:去哪里寻找你的武器

生态正在爆炸式增长,不要重复造轮子。
+ 官方参考实现
+ 官方注册表(App Store)
+ 社区精选列表
+ 在线运行环境

3. 30 个必装 MCP 服务清单

开发与协作
+ GitHub MCP:必装之首。让 Claude 读代码、开 PR、审 Issue、跑流水线。
+ Playwright MCP:浏览器自动化。Claude 可以像真人一样操作网页、截图、验证前端逻辑。
+ Sentry MCP:线上报错直连。Claude 直接读堆栈信息,分析生产环境 Bug 并给出修复建议。
+ Semgrep MCP:代码安全审计。在漏洞上线前,让 Claude 帮你过一遍安全扫描。
+ CircleCI MCP:调试构建失败的利器,不再需要手动复制粘贴日志。

数据库与数据分析
+ PostgreSQL / Neon MCP:Claude 直接查询数据库、检查 Schema,甚至帮你做数据迁移。
+ Supabase MCP:管理后端全家桶,从 Auth 到 Edge Functions,Claude 成了你的后端管理员。
+ Neo4j MCP:处理复杂关系。让 Claude 在图数据库里导航,寻找数据间的深层联系。
+ Qdrant MCP:赋予 Claude 长期记忆。通过向量搜索,让它建立属于自己的语义知识库。
+ Tinybird MCP:实时分析海量数据。不用写 SQL,直接用自然语言问 Claude 业务指标。

云原生与基础设施
+ AWS Suite:从成本分析到 CDK 建议,Claude 成了你的云架构师。
+ Cloudflare MCP:管理 Workers、R2 存储和 DNS,一句话就能部署边缘函数。
+ Grafana MCP:告别手动翻看几十个仪表盘,让 Claude 帮你监控指标、排查故障。
+ Railway / Render MCP:将“部署这个应用”变成一条简单的聊天指令。

生产力与业务操作
+ Notion MCP:官方出品。Claude 可以读写你的整个知识库,让文档管理自动化。
+ Slack MCP:总结团队讨论,或者让 Claude 替你发布项目进展。
+ Gmail MCP:搜索邮件、草拟回复,Claude 成了真正的沟通助理。
+ Jira / Asana MCP:打破产品经理和开发之间的信息壁垒,自动更新任务状态。
+ Stripe MCP:调试支付流程、检查订单状态,Claude 帮你盯着钱袋子。
+ HubSpot MCP:销售团队的神器,自动更新流水和客户信息。

网页抓取与数据提取
+ Firecrawl MCP:专门对付复杂网页,将混乱的 HTML 变成干净的 Markdown。
+ Browserbase MCP:云端浏览器,让 Claude 替你登录网站、填写表单。
+ Bright Data MCP:企业级数据采集,支持大规模并发抓取。
+ Apify MCP:调用 3000 多个现成的爬虫工具,不要自己写脚本,直接调用。

AI 增强与深度思考
+ Memory MCP:官方内存插件。让 Claude 跨会话记住你的偏好和事实,它会越来越懂你。
+ Sequential Thinking MCP:强制 Claude 进行结构化推理。这能显著降低它在处理复杂逻辑时的“幻觉”。
+ Context7 MCP:提供最新的文档支持。防止 Claude 使用过时的 API,让它永远参考最新版本。

媒体与设计
+ Figma MCP:设计转代码的桥梁。让 Claude 读样式、读组件规范,直接生成像素级还原的代码。
+ ElevenLabs MCP:让 Claude 拥有声音,自动生成播客、旁白或语音内容。

4. 进阶路径:如何科学地武装 Claude

不要一次性安装所有插件,这会干扰 Claude 的判断。建议遵循以下顺序:
第一步:安装基础(Foundation)。包括 Filesystem、Git、Memory 和 Sequential Thinking。
第二步:接入工具栈(Stack)。你用 GitHub 就装 GitHub,用 AWS 就装 AWS。
第三步:提升生产力(Productivity)。接入 Notion 和 Slack,让 Claude 进入你的沟通环。
第四步:按需扩展数据(Data)。需要抓取或大规模分析时,再开启 Firecrawl 等工具。
余弦的OpenClaw 极简安全实践指南更新了 | 帖子 | github | #指南

适用于:
- OpenClaw 以高权限运行(具备终端/root 权限的环境)
- OpenClaw 持续安装并使用Skills / MCPs / scripts / tools
- 目标是在风险可控、审计明确的前提下实现能力最大化

指南提供了一套经过实战检验的、极简的 三层防御矩阵:

事前 (Pre-action): 行为黑名单与严格的技能包安装审计协议(防供应链投毒)
事中 (In-action): 权限收窄与跨技能业务风控前置检查 (Pre-flight Checks)
事后 (Post-action): 每晚自动化显性巡检(覆盖 13 项核心指标)与大脑 Git 灾备同步

使用方法:把安全指南直接丢给 OpenClaw,让它自己理解、评估、部署整个防御体系。四步:下载指南 → 发给 Agent → Agent 评估 → 部署。
Vibe Coding 指南:终极 AI 结对编程流程,帮开发者规划驱动开发,模块化拆解任务,一步步把想法变成可维护代码流水线。| #指南

它强调以“规划就是一切”为核心理念,采用递归自我优化的元方法论,规范 AI 生成的提示词和技能,防止项目陷入混乱。配合 VSCode 插件和终端 CLI,支持 Claude Opus 4.5 与 gpt-5.1-codex 等顶级模型,能实现从需求设计、技术选型、开发规划到代码实现的完整闭环。

主要功能:
- 详细的实施计划生成,分步指导开发与测试,保证质量;
- 系统提示词库和编码提示词库,约束 AI 行为边界;
- 模块化项目结构管理,防止代码膨胀和混乱;
- 支持多模型和工具集成,如 Codex CLI、Claude Code、LazyVim、Warp 终端等;
- 结合记忆库和上下文,提升 AI 代码生成准确度和连续性。

项目已开源,拥有丰富文档和实用工具,适合软件开发者想用 AI 高效编码、持续迭代和复盘。
一位AI重度玩家分享了他的完整工具栈,从代码到视频,从设计到自动化,几乎覆盖了创作者能想到的所有场景。这份清单本身就是一份值得收藏的参考指南。| 帖子 | #工具 #指南

编程开发层面,他同时使用Claude Code、KIWI K2.5和Codex处理不同类型的编码任务,Cursor负责调试,Lovable专攻网页原型,Vibecode则用于移动端应用开发。他提到自己手上有二三十个实验性App在排队等着做,这种产出效率在过去是不可想象的。

视觉内容生产线同样丰富:Midjourney负责病毒式传播的图像风格,Grok和Nano Banana Pro作为图像生成的补充选项,Topaz Bloom处理图像放大。视频方面,Veo 3.1、Kling、Grok三管齐下,Topaz Astra负责视频增强。更有意思的是3D领域,Meshy AI可以把图片转成3D模型,DeepMind的Genie则用于构建3D世界。

内容运营工具也相当完整:HeyGen和Higgsfield用于AI虚拟人,Opus Clip做病毒式剪辑,Veed处理字幕,CapCut快速剪辑,ElevenLabs生成语音,Suno生成音乐。

有人问他每月在这些工具上花多少钱,他的回答很有意思:太多了,所以2026年的计划是用自己开发的App替换掉其中一部分。这其实揭示了一个趋势,当AI编程能力足够强,很多垂直SaaS的护城河会被个人开发者逐渐瓦解。

另一条评论也很犀利:这么大的工具栈不是竞争优势,而是订阅噩梦,真正的护城河是你独特的创意品味,不是你租用的工具。他的回应是:谁说我每个月都在为这些付费?

这句话点出了一个容易被忽视的事实。工具的价值不在于拥有多少,而在于你能用它们产出什么。当被问到日常最常用什么时,他的答案是自己用代码构建的内部工具和应用。

掌握AI的方式只有一种,就是把所有工具都用一遍。这话听起来偏执,但在技术剧变期,广泛尝试本身就是一种学习策略。
普通人如何用Claude Code实现自动化:一份零基础指南 | #指南

现在学会这项技能的人,将获得巨大的先发优势。六个月后,这将成为常识。但在那之前开始的人,才是真正的赢家。

大多数人打开Claude Code,对着黑色终端发呆二十分钟。他们看到推特上人人都在发布应用、自动化工具、完整产品,然后默默关掉——因为根本不知道该做什么。

问题不在于Claude Code,而在于他们跳过了最关键的一步。

+ 为什么多数人会失败

Claude Code看起来很吓人:终端界面,光标闪烁,仿佛只有开发者才能驾驭。

其实不然。Claude Code本质上就是一个能“动手干活”的聊天窗口——读取文件、编写代码、搜索网络、构建系统。

失败者并非缺乏技术能力,而是不知道该问什么。他们打开软件时想的是“我应该做个应用”,而不是“有什么事情正在困扰我,可以被解决?”

这才是关键的思维转变。

+ 四步工作流

我见过很多人从“不知道做什么”到每周节省数小时,他们都遵循相同的流程。

第一步:盘点你的一周

在打开Claude Code之前,拿张纸写下上周所有重复、繁琐、恼人的事情:研究竞品、整理报告、搬运数据、写重复邮件、整理文件。

这些不是性感的产品创意,不会获得点赞。但它们是你真实存在的问题——这才是重点。你的第一个自动化不应该是业余项目,而应该是那些每周吃掉你两三个小时的琐事。

第二步:与Claude探索方案

现在打开Claude Code,但不要急着让它构建任何东西。先描述你要解决的问题:

“我每周花两小时研究竞品的YouTube频道,查看热门视频、分析趋势。有没有办法自动化?”

然后要求它给出选项:“给我三种不同方案,说明各自优缺点。”

这里有个关键:追求更简单的方案。如果Claude建议需要配置API密钥和计费,就问“有没有免费版本不需要这些?”通常都有。

不要接受第一个答案,把它当作与专家的对话来对待。

第三步:先规划再构建

这是多数人搞砸的地方。他们一兴奋就说“好,开始做”,然后放任Claude运行。

这是个坏主意。AI会做大量假设,跳过规划步骤意味着这些假设会变成日后的bug。

正确做法:按Shift+Tab切换到“计划模式”,告诉Claude写一份规格说明——功能、输入、输出的样子,先不写代码。审查规格说明后,砍掉第一版不需要的一切。

AI总是想做太多,你会看到没要求的功能和不必要的复杂度。规格说明是你与Claude的契约,批准后再让它动手。

这一步花十分钟,能省下数小时的调试时间。

第四步:构建与迭代

现在可以让Claude按规格实现了。它会创建文件、编写代码、搭建系统——你不需要理解任何一行。

出错时(肯定会的),复制错误信息粘贴回去,说“修复这个”。

这就是循环:构建、出错、修复、重复。

不要期望第一次就完美,期望的是一个可以改进的工作草稿。

+ 实战案例:YouTube研究器

我想自动化竞品YouTube研究,手动做需要每周两小时。

我告诉Claude问题后,它给了三个选项:官方API(设置复杂)、网页抓取(不稳定)、免费工具yt-dlp。我问yt-dlp是否更简单,确认后无需API密钥,直接可用。

切换到计划模式要求规格说明后,我砍掉了它自作主张添加的“缩略图分析”功能。十分钟后,我有了一个工作命令:输入频道名,获得完整研究报告。

曾经两小时的工作,现在三十秒完成。

+ 70/80法则

这里有个没人告诉你的真相:这种编程方式70%到80%的工作是写文档,不是写代码。

计划、规格、需求、用大白话描述你想要什么。AI写代码,你的工作是把需求解释得足够清楚,让它不做错误假设。

这正是非技术人员能做好这件事的原因。你比拼的不是编码能力,而是沟通能力、清晰度、具体性。如果你能写一封清晰的邮件,你就能做到这一切。

+ 真正的技能

让我直说正在发生什么:你不是在学编程,你是在学习管理一个替你编程的AI。

这是不同的技能,而现在几乎没人掌握它。

在Claude Code上取得成功的不是开发者,而是那些知道该解决什么问题、能清晰表达问题的人。技术能力每天都在被AI商品化,AI写的代码已经比大多数初级开发者更好了。

但知道该解决哪些问题?知道如何把大目标拆成小步骤?知道如何审查输出、发现错误?这是人类的工作,不会消失。

+ 窗口期

六个月后人人都会知道怎么做这些。Claude Code会有更友好的界面,会有课程和认证,一切会变得理所当然。

现在它仍然感觉困难、吓人,好像需要许可才能尝试。你不需要。

今天培养这项技能的人将拥有巨大的领先优势——不是因为技能本身有多难,而是因为他们在一切变得显而易见之前就开始了。

工具是免费的,机会就在眼前。别再盯着空白终端发呆了,开始和它对话吧。
50小时,从零到能训练大语言模型 | 帖子 |#机器学习 #指南

这是一份经过验证的机器学习工程师养成指南。作者教过数百万人编程,这套路径是他总结出的最优解。

先说一个残酷的事实:大多数人把技术视频当Netflix看,被动观看,随手记几笔,一周后忘得干干净净。这种学习方式注定失败。

真正有效的方法是两遍学习法。

第一遍:纯粹观看。不记笔记,不暂停,不跟着敲代码。目标是在脑中建立知识的整体框架,理解概念之间的关联。你在搭建一个脚手架,细节稍后再填充。

第二遍:主动学习。打开笔记本,打开代码编辑器,开始真正的学习。频繁暂停,用自己的话重述概念,亲手敲出每一行代码。然后打破它,修改参数看看会发生什么,有想法就去尝试。第二遍的时间通常是视频时长的两到三倍,这才是学习真正发生的地方。

那些成为顶尖ML工程师的人,并不比你聪明。他们只是在别人用两倍速刷视频时,进行着这种刻意练习。

关于ML工程师的定位,很多人存在误解。ML工程师的核心工作是训练和微调模型、构建数据管道、将模型部署到生产环境、优化速度和成本、监控模型性能。你需要掌握的是Python编程、足够理解原理的线性代数和微积分、神经网络的机械运作方式、Transformer架构,以及用代码实现这一切的能力。

学习路径分为三个阶段。

第一阶段用3Blue1Brown的视频建立直觉,大约需要10到15小时。Grant Sanderson是互联网上最好的数学教育者,他的神经网络系列能让抽象概念变得可视化。从神经网络基础、梯度下降、反向传播,到大语言模型和Transformer架构,这些视频会给你一个比大多数人都清晰的心智模型。

第二阶段是Andrej Karpathy的课程,需要30到40小时。Karpathy是OpenAI创始成员、特斯拉前AI高级总监,他的课程教你真正动手构建。你会从零开始实现自动微分引擎micrograd,构建字符级语言模型makemore,最终亲手搭建GPT。这个过程中,你会理解反向传播到大多数从业者永远达不到的深度。特别是那个构建GPT的视频,让成千上万人真正理解了现代AI的工作原理。

第三阶段是补充视频,大约5小时,用于加深对LLM整体训练流程的理解,包括预训练、监督微调、强化学习,以及如何思考模型的幻觉和工具使用。

总计约50小时的专注学习。

这里有一个值得深思的点:所有这些顶级资源都是免费的,就在YouTube上。真正稀缺的从来不是信息,而是愿意进行刻意练习的决心。

另一个现实是,学完这些能让你理解现代AI的底层原理,但要成为真正的ML工程师,还需要在实际项目中积累经验。理论和实践之间的鸿沟,只能通过不断构建真实系统来跨越。

最好的学习者不会等待完美的课程或合适的训练营。他们从最好的免费资源开始,然后投入刻意练习。

开始看,开始建。
The Realistic Guide to Mastering AI Agents in 2026 | #指南

一篇在 2026 年真正掌握 AI Agent(智能体)技术的硬核指南。

作者 Paolo Perrone 批评了大多数教程只教皮毛,并提供了一份为期 6-9 个月的实用学习路线图,期望该教程能让你成为开发出实际解决问题的生产级系统的开发者,而不仅仅是做演示 demo。

内容先从数学基础、编程能力、机器学习基础开始,最后在演进到理解 Agent 原理和开始构建。
Machine Learning Interviews:一份机器学习工程师面试的指南,作者曾拿到 Meta、Google、Amazon、Apple 等大厂 offer,把自己的面试准备经验整理成了完整的学习路径。

按照大厂技术面试的实际模块划分,涵盖算法编程、机器学习编程、ML 基础知识、系统设计、智能体系统和行为面试六大板块。

每个模块都有详细的准备建议和学习资源,比如 ML 系统设计部分在 2023 年更新过,智能体 AI 系统是 2025 年新增内容,紧跟行业趋势。

如果你正在准备 ML 工程师或应用科学家岗位的面试,这份指南值得收藏,能帮你系统梳理考点,少走弯路。| #指南 #机器学习 #面试
Vibe Coding:一份写给所有人的实践指南 | #指南 | 帖子

过去二十年,想做软件就得学编程。花几年时间啃框架、凌晨三点debug、反复怀疑人生——这是入场的代价。

但有些东西悄然改变了。

Andrej Karpathy(塑造了特斯拉AI的人)发了条推文:"有一种新的编程方式,我称之为'vibe coding'——你完全沉浸在感觉中,拥抱指数级增长,忘掉代码的存在。"

从想法到产品之间的壁垒正在坍塌。不是理论上的,是现在,是今天。你描述想要什么,AI就能写出代码。一天能做完过去需要几周的事。

这不是炒作,这是现实。理解如何使用它,你就领先了99%的人。
科研与英文学术论文写作指南 | #指南 #论文

作者:于静 中科院信息工程研究所,副研究员
本系列报告面向刚刚开始从事科学研究或者将要从事科学研究的研究生和本科生,介绍科学研究的基本信息(意义、目标、大体流程、一些小建议等),重点以一些具体论文实例介绍学术论文写作规范和科学方法,旨在帮助学生形成科学、系统、规范的科研和写作思维与方法。

本系列报告包括以下几方面内容:
(1)首先介绍学术研究与学术论文写作的关系,引出刚刚开始从事科学研究的低年级研究生和高年级本科生在英文学术论文写作中常见的问题及原因;
(2)报告重点以一些具体论文实例介绍高水平英文学术论文的科学思维、写作规范和修改过程,详细剖析一篇高水平论文在标题、摘要、引言、相关工作、研究方法、实验分析、总结与展望、参考文献等各部分的写作思路、相互关系、常见问题及改进方法,分享论文写作和论文修改的关键时间节点和建议;
(3)如何确定论文引言和方法的写作逻辑和内容?报告将详细剖析如何通过画好论文研究动机示意图和模型框架图梳理论文立意、贡献和方法,并通过一些论文从0到1十几个版本画图的修改过程介绍论文逐步完善的写作过程;
(4)如何写出语言规范、简洁、严谨的英文学术论文?报告将介绍基本的写作规范,并通过实例分析常见问题;
(5)如何在日常研究中循序渐进积累、把握科研节奏、从容面对 deadline?报告重点围绕如何找论文、讲论文、梳理论文介绍5List的积累方法和有效工具,包括 Paper List、Idea List、Math List、English List、Code List。
Machine Learning Engineering Open Book(机器学习工程开放书)

Stas Bekman创建并维护的一份开源技术指南。该项目旨在收集和分享关于大语言模型及多模态模型训练、微调和推理的实用方法论、工具及详细步骤。| #指南

内容从底层硬件(计算加速器、CPU、内存)到软件基础设施(文件存储、网络、SLURM 调度系统)的各个层面,特别关注在大规模分布式系统中遇到的调试、优化和测试等工程难题。

对于希望深入了解如何构建高效 ML 训练集群或解决实际训练崩溃问题的机器学习工程师和研究人员来说,这是一份极具价值的实战手册。
Google发布了一份关于多智能体系统上下文工程的权威指南,提出了高效管理上下文的全新思路。核心在于用“工作上下文”、“会话”、“记忆”和“工件”四层结构替代传统庞大的提示语,有效降低了信息冗余和模型幻觉。| #指南

每次调用时,系统通过有序流程和处理器,从指令、精选会话事件、记忆结果和工件引用重建工作上下文。会话日志经过噪声过滤和格式化,变为清晰的聊天历史输入模型请求。

通过上下文压缩、过滤和缓存,旧信息被总结,没用事件被丢弃,稳定的前缀得以复用。大体量信息转为工件存储,长期知识保存在记忆中,记忆服务仅提取相关片段注入窗口,极大节省了Token消耗。

多智能体系统中,代理作为工具协同工作,子代理只访问所需上下文,防止幻觉和错误行为,保证效率和准确性。Google强调,将上下文工程视为与存储和计算同等重要的基础设施,而非简单的提示堆砌,是构建大规模多智能体系统的关键。

这套方法不仅能减少60%-80%的Token使用,还能显著提升多代理系统的稳定性和响应速度,真正推动生产级AI系统的落地。
Z-Image 零基础上手指南:本地部署 + 提示词模板实战 | #指南

“无需 4090,6GB 显存笔记本也能生成带中文字的商业级海报!

Z-Image 作为一款高效能、轻量化的生成式 AI 模型,不仅推理速度快,更原生支持中英双语理解与精准渲染。本文将从模型下载 → 配置 ComfyUI → 撰写提示词 → 解决常见报错,手把手带你完成 Z-Image 的本地部署与实战使用,小白友好。”
Beej's Guide to Learning Computer Science| #指南 #计算机科学

Beej系列的入门教程口碑都很好。最近新出了这本计算机科学学习指南,其中还包括了学习中应该如何使用AI的部分内容。

“我不会过多讨论如何编写代码。在这大约40页的内容中,我主要想谈的是:当你刚刚开始成为一名软件开发者时,该如何有效地学习。
尽管我很希望能准确了解每个人的学习方式,并把这些内容都压缩进这40页中,但坦白说,我做不到。

但我确实拥有40多年的编程经验(大学前自学起步),20年的行业经验,以及8年以上的教学经验。同时,我也拥有计算机科学的学士和硕士学位。并且,我对如何最有效地学习编程,有自己的见解!”
Claude Code 的 “CLAUDE.md” 配置指南 | blog | #指南

因为大语言模型(LLM)本身是无状态的 —— 它并不会记住先前会话或项目的信息,每次新会话它对你的代码库毫无“背景知识”。所以为了让 Claude Code “了解”你的项目结构、目的、依赖、构建/测试命令,以及你对编码风格/流程/测试/构建/运行方式等的期望,就必须借助 CLAUDE.md。

CLAUDE.md 越简洁、越聚焦、越“通用适用”越好。如果将太多针对特定任务或细节的规则填进 CLAUDE.md,反而可能让模型忽略整个文件,因为它在系统层会把它当作“可能不相关”。

作者推荐仅在 CLAUDE.md 中放入项目的总体 “WHY / WHAT / HOW”(项目目的、整体架构/技术栈、核心构建/测试/运行流程),以及一些对所有任务都通用的重要规范——然后把其它更细节、任务/模块专属的说明放在独立 markdown 文件中(例如 code_conventions.md、testing.md、architecture.md 等),并在 CLAUDE.md 中以引用/说明的方式指向它们。这样既能保持上下文整洁,也能让 Claude 在真正需要的时候按需读取。
Claude Opus 4.5 的提示词(Prompting)实战指南 | 帖子 | #指南

为了帮助大家更好地驾驭新模型,我们的研究与应用团队经过大量内部测试和“折腾”,总结了一份针对 Claude Opus 4.5 的提示词(Prompting)实战指南。

以下是我们目前摸索出的“独家秘籍”,教你如何榨干它的潜能,获得最佳效果:

1. 用好 effort 参数,想多聪明你说了算

新的 effort(努力值)参数简直是个神器。它能让你大体控制 Claude 在输出内容时消耗多少算力。这就好比你有了一个调节旋钮:你可以通过它,在“智能程度”与“成本/响应速度”之间做一个权衡 (向左转省钱快出结果,向右转费点时间但智商爆表)。

这个参数对所有类型的 Token (AI 处理文本的最小单位,相当于单词或汉字) 都有效,包括模型的思考过程、正式回复以及工具调用。

2. 别太凶,温柔点:调整工具触发率

你可能会发现工具触发的频率变了。这是因为 Opus 4.5 对系统提示词(System Prompts)的反应更加灵敏。

以前为了防止它“偷懒”不调用工具 (Undertriggering,即触发不足),你的旧提示词可能使用过非常激进或严厉的语言。但在新版本里,这样反而会导致它变得太敏感,动不动就乱用工具 (Overtriggering,即触发过度)。

所以,是时候把语气放缓了。将原来那种 “CRITICAL: You MUST use this tool”(严重警告:你必须使用此工具)的命令,改成平和的 “Use this tool when...”(当出现……情况时,使用此工具)就可以了。

3. 防止“加戏”:避免过度设计

Opus 4.5 有时候会有点“想太多”,导致过度设计 (Overengineer,即把简单问题复杂化),比如凭空增加不必要的文件或者搞一堆复杂的抽象层。

要解决这个问题,你得在提示词里把话说明白,比如加上:“Only make changes that are directly requested. Keep solutions simple and focused.”(只修改我明确要求的部分。保持解决方案简洁、聚焦。)

4. 拒绝“云写代码”:强制它先读后写

在探索代码库时,Opus 4.5 有时会表现得比较保守。

如果你发现它没看代码就直接瞎提修改建议,请直接给它下死命令:“ALWAYS read and understand relevant files before proposing edits. Do not speculate about code you have not inspected.”(在提出修改建议前,必须总是先阅读并理解相关文件。绝对不要对自己没检查过的代码进行猜测。)

5. 眼神更好了:视觉能力大升级

Opus 4.5 的视觉能力有了显著提升,处理图像和提取数据的能力更强了,尤其是在同时处理多张图片的时候。

对于那些信息量巨大、密密麻麻的图片 (Dense Images),教你个绝招:给它配备一个裁剪工具,让它能像用放大镜一样“放大”并聚焦于局部细节。在我们的测试评估中,这一招能稳定提升它的表现。

如果你想快速应用上述所有技巧,将你的应用无缝迁移到 Opus 4.5,可以直接使用我们制作的这个 Claude Code 迁移插件
Gemini CLI Tips & Tricks:本指南涵盖了约30个专业技巧,帮你高效使用 Gemini CLI 进行智能编程。| #指南

是一款开源的 AI 助手,将 Google 的 Gemini 模型的强大功能直接带入你的终端。它作为一个对话式的“智能”命令行工具工作——这意味着它能够推理你的请求、选择工具(如执行 shell 命令或编辑文件),并执行多步计划以帮助你的开发工作流程。

提示 1:使用 GEMINI.md 以保持持久上下文
提示 2:创建自定义斜杠命令
提示 3:通过您的自有 MCP 服务器扩展 Gemini
提示 4:利用记忆添加和回忆
提示 5:使用检查点和 /restore 作为撤销按钮
提示 6:读取 Google Docs、Sheets 等
提示 7:使用 @ 引用文件和图像以明确上下文
提示 8:动态创建工具(让 Gemini 构建助手)
提示 9:使用 Gemini CLI 进行系统故障排除和配置
提示 10:YOLO 模式 - 自动批准工具操作(谨慎使用)
提示 11:无头和脚本模式(在后台运行 Gemini CLI)
提示 12:保存并恢复聊天会话
提示 13:多目录工作空间 - 一个 Gemini,多个文件夹
提示 14:使用 AI 协助整理和清理文件
提示 15:压缩长对话以保持上下文
提示 16:通过 ! 传递 Shell 命令(与终端对话)
提示 17:将每个 CLI 工具视为潜在的 Gemini 工具
提示 18:利用多模态 AI - 让 Gemini 查看图像等
提示 19:自定义 PATH(以及工具可用性)以提高稳定性
提示 20:通过令牌缓存和统计信息跟踪和减少令牌消耗
提示 21:使用 /copy 进行快速剪贴板复制
提示 22:掌握 Ctrl+C 用于 Shell 模式和退出
提示 23:通过 settings.json 自定义 Gemini CLI
提示 24:利用 IDE 集成(VS Code)获取上下文和差异
提示 25:使用 Gemini CLI GitHub Action 自动化仓库任务
提示 26:启用遥测以获取洞察和可观察性
提示 27:关注路线图(背景代理等)
提示 28:通过扩展来扩展 Gemini CLI
提示 29:柯基模式彩蛋 🐕
大语言模型(LLM)学习路径和资料汇总》为不同水平的学习者提供了系统且实用的学习指南,涵盖入门、应用和深入三个阶段。| #指南

入门部分帮助理解基础知识和常用术语,推荐通过OpenAI API和如openrouter.ai等平台实践;

应用篇则聚焦于本地部署开源模型及主流开发框架(如LangChain、Dify),并介绍Prompt工程、RAG、Agent等实战范式;

深入篇则深入探讨模型原理、训练微调、数据工程及推理优化,配以权威教材和前沿课程,助力打造扎实理论基础与技术能力。

这份汇总是大语言模型领域知识体系化学习的宝贵指南,适合希望系统掌握LLM技术的所有人阅读与分享。
 
 
Back to Top