Z-Image 零基础上手指南:本地部署 + 提示词模板实战 | #指南

“无需 4090,6GB 显存笔记本也能生成带中文字的商业级海报!

Z-Image 作为一款高效能、轻量化的生成式 AI 模型,不仅推理速度快,更原生支持中英双语理解与精准渲染。本文将从模型下载 → 配置 ComfyUI → 撰写提示词 → 解决常见报错,手把手带你完成 Z-Image 的本地部署与实战使用,小白友好。”
Beej's Guide to Learning Computer Science| #指南 #计算机科学

Beej系列的入门教程口碑都很好。最近新出了这本计算机科学学习指南,其中还包括了学习中应该如何使用AI的部分内容。

“我不会过多讨论如何编写代码。在这大约40页的内容中,我主要想谈的是:当你刚刚开始成为一名软件开发者时,该如何有效地学习。
尽管我很希望能准确了解每个人的学习方式,并把这些内容都压缩进这40页中,但坦白说,我做不到。

但我确实拥有40多年的编程经验(大学前自学起步),20年的行业经验,以及8年以上的教学经验。同时,我也拥有计算机科学的学士和硕士学位。并且,我对如何最有效地学习编程,有自己的见解!”
Claude Code 的 “CLAUDE.md” 配置指南 | blog | #指南

因为大语言模型(LLM)本身是无状态的 —— 它并不会记住先前会话或项目的信息,每次新会话它对你的代码库毫无“背景知识”。所以为了让 Claude Code “了解”你的项目结构、目的、依赖、构建/测试命令,以及你对编码风格/流程/测试/构建/运行方式等的期望,就必须借助 CLAUDE.md。

CLAUDE.md 越简洁、越聚焦、越“通用适用”越好。如果将太多针对特定任务或细节的规则填进 CLAUDE.md,反而可能让模型忽略整个文件,因为它在系统层会把它当作“可能不相关”。

作者推荐仅在 CLAUDE.md 中放入项目的总体 “WHY / WHAT / HOW”(项目目的、整体架构/技术栈、核心构建/测试/运行流程),以及一些对所有任务都通用的重要规范——然后把其它更细节、任务/模块专属的说明放在独立 markdown 文件中(例如 code_conventions.md、testing.md、architecture.md 等),并在 CLAUDE.md 中以引用/说明的方式指向它们。这样既能保持上下文整洁,也能让 Claude 在真正需要的时候按需读取。
Claude Opus 4.5 的提示词(Prompting)实战指南 | 帖子 | #指南

为了帮助大家更好地驾驭新模型,我们的研究与应用团队经过大量内部测试和“折腾”,总结了一份针对 Claude Opus 4.5 的提示词(Prompting)实战指南。

以下是我们目前摸索出的“独家秘籍”,教你如何榨干它的潜能,获得最佳效果:

1. 用好 effort 参数,想多聪明你说了算

新的 effort(努力值)参数简直是个神器。它能让你大体控制 Claude 在输出内容时消耗多少算力。这就好比你有了一个调节旋钮:你可以通过它,在“智能程度”与“成本/响应速度”之间做一个权衡 (向左转省钱快出结果,向右转费点时间但智商爆表)。

这个参数对所有类型的 Token (AI 处理文本的最小单位,相当于单词或汉字) 都有效,包括模型的思考过程、正式回复以及工具调用。

2. 别太凶,温柔点:调整工具触发率

你可能会发现工具触发的频率变了。这是因为 Opus 4.5 对系统提示词(System Prompts)的反应更加灵敏。

以前为了防止它“偷懒”不调用工具 (Undertriggering,即触发不足),你的旧提示词可能使用过非常激进或严厉的语言。但在新版本里,这样反而会导致它变得太敏感,动不动就乱用工具 (Overtriggering,即触发过度)。

所以,是时候把语气放缓了。将原来那种 “CRITICAL: You MUST use this tool”(严重警告:你必须使用此工具)的命令,改成平和的 “Use this tool when...”(当出现……情况时,使用此工具)就可以了。

3. 防止“加戏”:避免过度设计

Opus 4.5 有时候会有点“想太多”,导致过度设计 (Overengineer,即把简单问题复杂化),比如凭空增加不必要的文件或者搞一堆复杂的抽象层。

要解决这个问题,你得在提示词里把话说明白,比如加上:“Only make changes that are directly requested. Keep solutions simple and focused.”(只修改我明确要求的部分。保持解决方案简洁、聚焦。)

4. 拒绝“云写代码”:强制它先读后写

在探索代码库时,Opus 4.5 有时会表现得比较保守。

如果你发现它没看代码就直接瞎提修改建议,请直接给它下死命令:“ALWAYS read and understand relevant files before proposing edits. Do not speculate about code you have not inspected.”(在提出修改建议前,必须总是先阅读并理解相关文件。绝对不要对自己没检查过的代码进行猜测。)

5. 眼神更好了:视觉能力大升级

Opus 4.5 的视觉能力有了显著提升,处理图像和提取数据的能力更强了,尤其是在同时处理多张图片的时候。

对于那些信息量巨大、密密麻麻的图片 (Dense Images),教你个绝招:给它配备一个裁剪工具,让它能像用放大镜一样“放大”并聚焦于局部细节。在我们的测试评估中,这一招能稳定提升它的表现。

如果你想快速应用上述所有技巧,将你的应用无缝迁移到 Opus 4.5,可以直接使用我们制作的这个 Claude Code 迁移插件
Gemini CLI Tips & Tricks:本指南涵盖了约30个专业技巧,帮你高效使用 Gemini CLI 进行智能编程。| #指南

是一款开源的 AI 助手,将 Google 的 Gemini 模型的强大功能直接带入你的终端。它作为一个对话式的“智能”命令行工具工作——这意味着它能够推理你的请求、选择工具(如执行 shell 命令或编辑文件),并执行多步计划以帮助你的开发工作流程。

提示 1:使用 GEMINI.md 以保持持久上下文
提示 2:创建自定义斜杠命令
提示 3:通过您的自有 MCP 服务器扩展 Gemini
提示 4:利用记忆添加和回忆
提示 5:使用检查点和 /restore 作为撤销按钮
提示 6:读取 Google Docs、Sheets 等
提示 7:使用 @ 引用文件和图像以明确上下文
提示 8:动态创建工具(让 Gemini 构建助手)
提示 9:使用 Gemini CLI 进行系统故障排除和配置
提示 10:YOLO 模式 - 自动批准工具操作(谨慎使用)
提示 11:无头和脚本模式(在后台运行 Gemini CLI)
提示 12:保存并恢复聊天会话
提示 13:多目录工作空间 - 一个 Gemini,多个文件夹
提示 14:使用 AI 协助整理和清理文件
提示 15:压缩长对话以保持上下文
提示 16:通过 ! 传递 Shell 命令(与终端对话)
提示 17:将每个 CLI 工具视为潜在的 Gemini 工具
提示 18:利用多模态 AI - 让 Gemini 查看图像等
提示 19:自定义 PATH(以及工具可用性)以提高稳定性
提示 20:通过令牌缓存和统计信息跟踪和减少令牌消耗
提示 21:使用 /copy 进行快速剪贴板复制
提示 22:掌握 Ctrl+C 用于 Shell 模式和退出
提示 23:通过 settings.json 自定义 Gemini CLI
提示 24:利用 IDE 集成(VS Code)获取上下文和差异
提示 25:使用 Gemini CLI GitHub Action 自动化仓库任务
提示 26:启用遥测以获取洞察和可观察性
提示 27:关注路线图(背景代理等)
提示 28:通过扩展来扩展 Gemini CLI
提示 29:柯基模式彩蛋 🐕
大语言模型(LLM)学习路径和资料汇总》为不同水平的学习者提供了系统且实用的学习指南,涵盖入门、应用和深入三个阶段。| #指南

入门部分帮助理解基础知识和常用术语,推荐通过OpenAI API和如openrouter.ai等平台实践;

应用篇则聚焦于本地部署开源模型及主流开发框架(如LangChain、Dify),并介绍Prompt工程、RAG、Agent等实战范式;

深入篇则深入探讨模型原理、训练微调、数据工程及推理优化,配以权威教材和前沿课程,助力打造扎实理论基础与技术能力。

这份汇总是大语言模型领域知识体系化学习的宝贵指南,适合希望系统掌握LLM技术的所有人阅读与分享。
开源大模型学习门槛高?《开源大模型食用指南》帮你一步到位。| #指南

这个项目专为中国宝宝量身打造,基于Linux环境,涵盖从环境配置、本地部署,到全参数和LoRA微调,再到多模态大模型应用的全流程教程。支持ChatGLM、Qwen、InternLM、LLaMA等主流模型,让普通学生和研究者轻松上手开源大模型。

主要特色:

- 详细的Linux环境搭建指导,针对不同模型定制;
- 国内外热门开源LLM的部署与使用教程;
- 命令行调用、在线Demo、LangChain集成全覆盖;
- 支持全量微调与高效LoRA微调,适合进阶学习;
- 丰富案例,助你打造专属私域大模型。

无论你是大模型新手还是想深入微调的开发者,这里都是最实用的指南。
Beej's Guide to Interprocess Communication》| #指南

这是一份Linux/Unix环境下进程间通信(IPC)的权威指南,涵盖从基础到进阶的多种技术,适合系统编程初学者与进阶者。

核心内容包括:

1. fork()详解:理解进程复制机制,助你掌控进程创建与管理。
2. 信号(Signals):教你捕获和处理信号,提升程序响应能力与稳定性。
3. 管道(Pipes)与FIFO:实现进程间数据流动,支持单向和命名管道通信。
4. 文件锁(File Locking):避免资源争用,确保数据一致性。
5. 消息队列(Message Queues):异步消息传递,提高进程间通信效率。
6. 信号量(Semaphores):同步多进程访问共享资源,防止竞态条件。
7. 共享内存(Shared Memory):高速共享数据,适合大规模数据交换。
8. 内存映射文件(Memory Mapped Files):文件与内存高效映射,方便持久化数据处理。
9. Unix套接字(Unix Sockets):支持全双工通信,灵活构建本地客户端-服务器架构。

每个章节配有示例代码,细致讲解API调用和使用场景,帮助开发者深入理解操作系统底层IPC机制。

思考与启示:
掌握IPC不仅是写出多进程程序的基础,更是构建高性能、健壮系统的关键。Beej指南条理清晰,语言幽默,实用性强,建议系统编程爱好者必读,助力你掌握进程协作的核心技术,写出更高效、更可靠的应用。
Claude Code 深度开发智能指南,开启开发效率与智能协同新纪元:

• 集成7大隔离工具(REPL、Artifacts、WebFetch等),实现多工具协作,支持大规模文件高效处理与代码分析。🛠
• REPL环境不仅是计算器,更是完整JavaScript数据科学实验室,支持高性能数据操作、加密API、图形处理及WebAssembly,彰显强大计算能力。
• 发现隐藏API window.claude.complete(),潜在支持递归AI调用与自我优化算法,体现Claude架构的深度AI计算融合(虽因安全限制暂时屏蔽)。
• 双重记忆系统(conversation_search + recent_chats)实现跨会话持久记忆与语义检索,支持长期学习和上下文重建。
• Artifacts环境支持React、Tailwind、Three.js、TensorFlow.js等前沿库,打造交互式可视化及完整开发环境,无浏览器存储依赖。
• 安全模型严格隔离各工具,在Web Worker与iframe中运行,阻断网络请求,防止无限递归和潜在注入攻击,保障开发安全。
• 元任务系统(Meta-Todo)引入多代理校验、智能意图捕捉与后台执行,实现任务拆解的全面验证与自动学习,远超传统待办列表。
• 智能背景自愈环境,90%开发问题自动检测与修复,基于日志分析与模式识别,实现开发服务自动恢复与预防。🛡
• 智能上下文管理框架,基于多层上下文分层(核心/工作/参考/瞬态),结合内存、意图与提取核,动态优化上下文,提升会话连贯与响应速度。
• 预测任务排队系统,结合时间、上下文、行为模式等多维预测,提前预加载资源与环境,减少任务切换与启动延迟40-60%。
• 三重验证研究流水线,结合来源验证、交叉验证及REPL计算验证,实现85-95%+的研究结论准确率,显著提升研究质量与效率。🔬
• 高级内核架构,四大认知核(记忆、意图、提取、验证)协同工作,实现智能任务管理、上下文分析与安全验证,支持多核并行及自适应优化。
• 多目录支持及子代理生态,支持跨项目多目录无缝操作,@子代理实现领域专家协作,涵盖架构设计、安全审计、性能优化等多专业。
• 系统自我优化循环,结合日志分析、模式学习、自动化脚本和安全审查,实现持续性能提升与错误预防,打造自进化开发生态。
• 详尽开发流程范例,覆盖认证实现、性能调优、多组件批量创建、生产问题调试、API迁移、CI/CD搭建等,实用且可复制。
• 终极元智能系统,融合递归学习、动态协同发现与自主代理生成,推动开发环境迈向超越人类直觉的智能协同与自我进化。

Claude Code 打造集成计算、记忆、验证、任务管理与自动化于一体的智能开发平台,助力开发者实现复杂系统的高效构建、调试与优化,开启面向未来的自我进化式编程新时代。

Claude Guide - Advanced Development Intelligence | #指南
现代大语言模型(LLM)文本生成的核心在于采样技术的精妙运用,合理组合采样策略才能平衡创造力与连贯性。

• 采样基础:模型首先计算所有词元(token)的概率分布,再通过采样方法从中选择下一个词元。直觉上选概率最高的“贪婪采样”容易导致输出单调重复,而采样引入“控制随机性”提升多样性。

• 词元分解:采用子词(token)而非单词或字符,既解决了词汇表庞大和未知词问题,又避免了字符级爆炸性序列长度,增强了模型的泛化与跨语言能力。

• 采样技术多样:涵盖温度调节(temperature)、频率惩罚(frequency penalty)、Top-K、Top-P(核采样)、Min-P、DRY(不重复自己)、尾部自由采样(Tail-Free Sampling)、Mirostat自适应采样、Beam Search、对比搜索(Contrastive Search)等。每种方法各有侧重点,如温度调节控制“创造力”,Top-K限制候选词数量,DRY防止n-gram重复,Mirostat动态调整采样以维持稳定惊讶度。

• 采样顺序影响显著:先后执行顺序决定最终概率分布形态。如先温度调节后过滤,会放大概率差异,先过滤后温度则限制选项更严格。惩罚机制放置在前后也会影响重复抑制效果。

• 交互效应:部分采样器组合协同增效(如Top-K+Top-P),而某些组合则相互冲突(如高温度+低Top-K过度限制多样性)。

• 词元化器(tokenizer)设计:BPE和SentencePiece两大主流方法,前者基于频率合并字符对,后者对原始Unicode流编码并显式处理空白,均影响模型预测空间和采样策略的灵活性。

• 采样算法伪代码详解:文档提供了完整伪代码,便于深度理解与实现,如温度采样通过调整logits的比例,DRY通过检测重复n-gram模式动态施加指数惩罚,Mirostat通过反馈控制实现目标惊讶度。

• 长期洞察:合理采样不仅提升即时生成质量,更影响模型在多样性、上下文理解和连贯性之间的权衡,决定了应用场景(创作、对话、代码生成等)的适用性和效果。

了解采样技术的这些本质与细节,有助于构建更智能、更可控的文本生成系统,推动大语言模型实用化和创新边界。

现代采样器入门指南 | #指南
JAX 入门实战指南,零基础友好,助你掌握高效机器学习编程核心技巧 | #指南

• Just-In-Time 编译(jit + XLA):加速 Python 函数执行,提升计算性能,了解最佳使用场景。
• 自动向量化(vmap):用批处理替代低效循环,简洁代码实现并行计算。
• 自动微分(grad 等):轻松计算导数与梯度,支持复杂函数与结构化输入。
• 调试工具(jax.debug.print、断点):洞察 JIT 和向量化代码内部执行,快速定位问题。
• Pytrees 结构:灵活处理嵌套数据,支持自定义类型映射转换。
• 分布式计算:多设备高效并行,涵盖自动、显式和手动分片策略。
• 有状态计算管理:保证随机性和模型状态重现性,兼容 JAX 变换。
• JIT 控制流优化:高效编写条件语句和循环,避免重复编译与代码膨胀。

每章节均以 Jupyter 笔记本形式呈现,配套实操示例,推荐边实验边学习,助力深度理解。项目持续更新,欢迎提交问题反馈。
一本免费且详尽的80页Prompt Engineering指南,涵盖了Chain-of-Thought(CoT)、Retrieval Augmented Generation(RAG)、评估方法、智能代理(Agents)、Prompt Hacking、多模态提示等前沿技术。| #指南

• 系统梳理58种文本提示技术及40种其他模态技术,构建了丰富的术语库和分类体系,帮助理解与应用各种Prompt策略。
• 深入探讨多语言与多模态提示,展示如何跨语言和跨媒体优化生成效果。
• 介绍智能代理如何结合外部工具提升GenAI能力,包括代码生成、检索增强等。
• 分析Prompt安全风险及对策,涵盖Prompt Injection、Jailbreaking及防御机制。
• 提供丰富案例与实证评测,揭示不同提示技术在真实任务中的表现差异与优化路径。

此指南不仅为初学者提供系统入门,也为专业研究者和开发者提供持续参考的理论与实践框架。
高效阅读论文的 Obsidian 标签布局实战指南:推特贴文 | #指南 #论文

• 左上角设为 Source note,方便快速定位原始笔记。
• 左下角启用 Excalibrain,助力知识网络可视化。
• 中央固定 PDF++,实现论文 PDF 的无缝浏览和标注。
• 右侧配置 NotebookLM,实时向 AI 提问,快速解决疑难。
• 英文论文先用 Readable 翻译,再通过 PDF++ 展示,提升理解效率。
• 全文导入 NotebookLM,确保所有疑问即时获得专业解答。

该方法完美融合笔记管理、知识图谱和 AI 辅助,极大提升论文阅读与研究效率。
这份“Vibe Coding”实用指南,教你如何用 AI 快速、高效、少折腾地把想法变成可用产品。

• 选主流技术栈(零额外成本,高回报):基础网站用 Wix、Framer、BlackBoxAI;真做 Web App 推荐 Next.js + Supabase,后台需要逻辑加 Python;做游戏就学 Unity 或 Unreal,别用 JS 瞎折腾。
• 写简单 PRD(中等投入,高回报):明确需求,拆分任务,分步交付 AI,避免“一口吃成胖子”,防止 Bug 堆积。
• 版本控制必备(低投入,高回报):AI 最终会“炸”代码,Git 强制跟踪改动,方便回滚,远胜自动检查点。
• 提供可运行代码样例(中等投入,高回报):别指望 AI 只靠文档搞定三方库/API,先写小脚本验证核心逻辑,再用作 AI 输入,减少因环境差异浪费时间。
• 遇阻重开新对话(低投入,高回报):纠错别陷入复制粘贴循环,清晰描述问题、预期、尝试过的方法及日志截图,保持对话简洁高效。

Vibe Coding Isn’t Dumb - You're Just Doing It Wrong | #指南
量化交易岗位面试备考全指南,助你从校园迈向顶级交易团队。

• 面向计算机与数学专业毕业生,覆盖数学、概率、市场理论、脑筋急转弯等核心题型
• 系统梳理面试流程,提供行业顶尖量化公司列表及实战练习资源
• 内置市场模拟与赌博类量化游戏,强化实战思维与策略制定能力🎲
• 深入解析交易基础、心理学与策略构建,助力打造全面量化交易知识体系
• 开源项目持续更新,社区支持,适合零基础到进阶者长期参考与实战演练
• 由行业内资深开发者打造,填补市面缺乏系统备考资料的空白,提高面试通过率

Quant Trading Interview Questions | #指南
(随书源码)一本关于使用PyTorch和Hugging Face微调大型语言模型的实战指南。它能帮助你快速掌握微调LLMs的关键技术,从量化到低秩适配器,再到数据集格式化和模型部署。

提供从基础到高级的完整学习路径;包含丰富的实战案例和代码示例;支持在Google Colab上直接运行,方便上手

FineTuningLLMs | #指南 #电子书
将AI Agent从想法变为生产级产品的开源实战指南

提供从零到生产级的全生命周期覆盖;包含20+可运行的教程,涵盖编排、内存、部署等关键模块;支持多Agent协作与实时安全防护

agents-towards-production | #指南
AI工程领域的宝藏手册,从零开始构建智能Agent的全方位指南

涵盖从基础工具使用到高级规划策略的完整知识体系;提供丰富的实践资源和代码实现;持续更新,紧跟AI工程前沿动态

AI-angineers-handbook | #指南
kubernetes-for-ml-engineers:专为机器学习工程师量身打造的Kubernetes入门指南。| #指南

仅需几步即可快速搭建本地Kubernetes集群;提供详细的FastAPI应用部署示例,从零到运行仅需9步;代码和配置清晰易懂,适合新手快速上手
详细介绍了如何通过 Prompt Engineering 来优化大型语言模型(LLM)的输出,包括 LLM 输出配置、输出长度控制、采样控制、温度参数、Top-K 和 Top-P 策略、以及整合这些技术。

本文档涵盖了各种 Prompt 技术,包括通用 Prompt、单次 Prompt、少量 Prompt、系统 Prompt、角色 Prompt、情境 Prompt 等。

文档还讨论了自动 Prompt 工程、代码相关 Prompt 技术、多模态 Prompt 技术,并提供了一系列最佳实践指南,以帮助用户更好地设计 Prompt,包括提供示例、简洁设计、明确输出、优先使用指令而非约束、控制最大令牌长度、在 Prompt 中使用变量、实验输入格式和写作风格、在少量 Prompt 中混合类别、适应模型更新以及实验输出格式等。

Prompt Engineering(提示词工程)| #指南
 
 
Back to Top