看病怎么选医生 ​​​| #经验
Bas van Opheusden分享了他加入OpenAI的面试经验,给求职者提供了宝贵的洞见和实用建议。|

首先,面试过程压力巨大,别忘了保护好心理和身体健康,保持支持网络,合理作息。面试虽看似竞争,实则大家目标一致——希望你成功通过并接受offer。

面试难免会有失败,重要的是坚持和成长。即使被拒,别气馁,未来依然有机会。多家AI/ML公司面试经历告诉我们,面试其实也很有趣——你会接触顶尖专家,学习新技能,体验编程挑战。

准备是成功关键:建议至少投入约100小时刷题,如Leetcode,另花类似时间阅读论文、复习基础知识、模拟面试。所有对话都非“随便聊聊”,每次交流都是展现自我和热情的机会。

技术面试中,面试官希望你成功,切勿紧张。掌握策略:保持简洁介绍,解决一个问题后迅速进入下一个,适应白板和Python编码。善用“todo”注释和断言帮助自己理清思路,遇难题可适当调整思路。

行为面试重在讲故事,使用STAR(I)法则,准备涵盖领导力、失败经历等主题的真实案例,展现成长和反思。

领域面试需熟悉基础与前沿知识,准备好讨论论文和当前项目。利用ChatGPT、Deep Research等工具辅助学习。

拿到面试机会往往靠可见的优秀成果和人脉推荐。保持活跃,发布作品,参加活动,善用LinkedIn和个人主页。面试前务必了解招聘经理背景,真诚表达对职位和团队的热情。

谈判时别只盯着薪资,关注团队、使命、文化和生活品质。最终选择让你每天都乐于工作的地方。

AI research interviews | #面试 #经验
从零开始实现GPT和Llama模型,带来的不仅是代码,更是深刻的实践体悟。本文作者总结了六大核心经验,值得每个深度学习工程师反复品味:

1. 放弃notebooks依赖,拥抱代码仓库。Colab和Kaggle方便,但真正的项目价值在于结构清晰、易维护的git repo,养成使用专业编辑器和工程化脚本的习惯,才是通向工业级开发的必经之路。

2. GPU永远不能闲着。深度学习的加速根本在于大规模并行计算。就像撕散书页在桌面铺开,GPU能同时处理海量数据。利用Wandb等MLOps工具实时监控GPU使用率,避免资源浪费,是保证训练效率的关键。

3. 持续优化代码细节。比如作者通过替换Parquet Reader为Dataloader、用PyTorch内置的Scaled Dot Product Attention替代自定义实现,token处理速度提升近10倍。性能提升往往藏在内核融合和内存优化的细节里,别放过任何提升空间。

4. 时刻关注张量维度。深度学习中Tensor维度变化频繁,做好注释、标明形状,避免因转置、reshape导致的逻辑混乱,是代码可读性和debug效率提升的基础。

5. 深刻理解模型组件差异。GPT用LayerNorm,Llama改用RMSNorm。拆解每个子模块,理解其设计动机和作用,才能更好地把握整张架构图,代码实现也能更加准确高效。

6. 善于横向比较架构演进。新模型往往在旧模型基础上做局部创新,比如Mixture of Experts用多个小网络替代大网络结构。通过对比,抓住关键创新点,快速洞察论文核心,有助于精准实现和性能评估。

最后,初学时别怕依赖如Grok、GPT、Gemini等工具,失败是成长的必经阶段,坚持下来终能独立驾驭复杂模型。

Learnings after coding GPT & Llama from scratch :) | #经验
10个核心原始提示词(Prompt),助你用Perplexity AI替代Google搜索,全面提升工作效率:帖子 | #经验

1. 深度调研模式
“You’re my research assistant. Find the latest studies, reports, and articles on [topic]. Summarize each source with: Title | Date | Key Finding | Source link.”

2. “给行家讲解”模式
“Explain [complex concept] as if I have deep domain knowledge but limited time. Include: key principles, debates, and real-world applications.”

3. 逆向观点生成器
“Summarize the mainstream consensus on [topic]. Then present 3 contrarian or under-discussed perspectives with credible citations.”

4. 多源整合分析
“Summarize how [Company A], [Company B], and [Company C] approach [problem]. Highlight differences in strategy, data use, and outcomes.”

5. 带引用写作助手
“Draft a 500-word article on [topic]. Use academic tone, include 3 cited sources (with links), and end with a future trend prediction.”

6. 数据猎人
“Find the latest available statistics on [metric]. Return: Figure | Source | Date | Link | Context (1 sentence).”

7. 新闻洞察流程
“Summarize this week’s top 5 news stories in [industry]. Highlight implications, patterns, and what most people missed.”

8. 来源可信度鉴定
“Evaluate the credibility of this source: [link]. Check author expertise, citations, publication reputation, and potential bias.”

9. 内容调研引擎
“I’m writing a post about [topic]. Find 5 stats, 3 frameworks, and 2 quotes from experts to support it.”

10. AI工作流伙伴
“When I ask a question, also suggest 3 follow-up queries that expand or deepen understanding.”

这些提示词覆盖调研、写作、数据挖掘、内容策划和信息验证等全链条,极大提升你的AI使用效率。
现代高效阅读科研论文的方法 | #经验

经过多次实践,作者发现分4次阅读科研论文,比一次性通读速度更快、理解更深。这一方法改编自Eugene Yan的“三遍法”,对不习惯读论文的人尤其友好,能大幅提升信息吸收和记忆效率。

具体步骤:
1. 快速浏览摘要、引言和结论,抓住核心观点和关键内容。
2. 再次精读引言和结论,顺带浏览章节标题,理清结构脉络。
3. 细读全文,做笔记和批注,深化理解。
4. (额外技巧)如果论文有代码,使用CodeMaps工具(Windsurf开发)结合代码仓库逐行跟踪实现,直观理解算法细节。

CodeMaps是作者最喜欢的冷门利器,可以让你边看论文边“跑”代码,极大提升学习效率。

刚刚读完一篇关于专家修剪压缩稀疏专家模型(SMoE)的论文,收获满满。

在阅读过程中,结合ChatGPT等工具辅助构建背景知识,能够更快理解论文上下文和相关研究。

不同观点也很有价值,比如不必字字阅读全部内容,应该重点关注新颖或特别感兴趣的部分,避免陷入误读和过度解读。
how to read research papers, in 5 minutes. | #经验 #论文

很多人没被教过如何高效阅读研究论文。学术圈往往默认这是自学技能,圈外则觉得论文太专业、枯燥,不值得花时间。我曾把读论文当成苦差事,耗费三年才逐渐享受其中。回顾经验,最有效的三条原则是:

1. 先直觉理解,再看实证数据,最后才深入细节。
先用三句话总结论文大意,抓住它“做什么、为什么做”;然后重点看图表和数据,判断方法和结论的可信度;细节部分只在确定值得钻研时才深入。不同背景的人理解细节方式差异很大——工程师喜欢边写代码边理解,数学博士则习惯先研读定义和推导。无论哪种,关键是随时可以停下来,投入时间在最有价值的论文上。

2. 读论文要讲效率,找适合自己的方式。
多读且快读,培养“研究品味”,避免在低质量论文上浪费时间。每篇论文不是孤立存在,要从整体研究网络中理解它的意义。找到适合自己的笔记和整理方法,比如用Notion建数据库,记录三句话总结、主观评论和重要性评分。明确阅读目的,有时想快速了解领域现状,有时想找到新视角。多尝试,别盲目跟风别人的阅读方法。

3. 学会提问,保持好奇心。
AI工具可以帮你理解内容,但提出正确的问题仍是你的责任。对一个主题,你要知道自己是“已经理解,可以评价和应用”,还是“还没理解,需要问问题填补知识空白”。遇到困难时,找出需要先掌握的“前置知识”,逐步拆解。保持“不怕问”的心态,才能不断突破理解瓶颈。

最后,虽然AI能简化学习过程,我依然坚持自己写总结和评论,这种“摩擦”才是真正的学习动力。别让表面上的“懂”替代了真正的理解。
Just Talk To It - the no-bs Way of Agentic Engineering:简明无废话的Agentic Engineering实战经验分享 | #经验

基于Agentic Engineering的开发流程已到能自动写几乎100%代码的地步。但很多人还在绕圈子,忙着制造复杂“假象”,反而没真正产出。

这里分享了作者这一年AI辅助开发的心得,直击核心,帮你少走弯路
掌握LLM高效提示的10大技巧,远超常规用法,彻底提升生成结果质量:

1. 初级阶段——建立清晰指令与示范基础
• 零样本提示(Zero-Shot):直接给出明确、具体的任务指令,避免模糊开放式提问。
例:“请用三条要点总结这篇文章。”优于“你怎么看这篇文章?”
• 少样本提示(Few-Shot):通过示范示例教模型如何回答,利用模型模式匹配本质强化理解。
例如:给出几个问答对,最后引导模型完成未给出的题目。

2. 中级阶段——引导模型逐步推理与验证
• 思维链(Chain-of-Thought,CoT):提示模型“逐步思考”,让它在回答前展开推理过程,有效提升复杂问题的准确率。
• 自动思维链(Auto-CoT):省去手动示范,模型自主生成推理示例,实现高效且可扩展的逻辑展开。
• 自洽性(Self-Consistency):同一问题多次询问,汇总最常出现答案,利用多样输出中的共识提升结果稳定性。

3. 高级阶段——多路径探索与自我迭代优化
• 思维树(Tree-of-Thoughts,ToT):模型不局限于单一路径,而是像决策树一样生成多条思路,测试并选择最佳方案,用于解谜、策略和复杂推理。
• 思维图(Graph-of-Thoughts,GoT):模拟人类非线性思维,支持思路组合、回溯与融合,极大增强创造力和复杂规划能力。
• 自我优化(Self-Refine):引导模型先写作,再进行自我批评,最后基于反馈改写,提高文本逻辑、语气和表达清晰度。

4. 专家级技巧——程序化与严谨逻辑推理
• 代码链(Chain-of-Code,CoC):利用伪代码或实际代码逻辑强制模型结构化思考,减少废话,提升精确度,尤其适合算法及工程类任务。
• 逻辑链(Logic-of-Thought,LoT):引入形式逻辑规则(如“若A则B,A成立,故B成立”),强化模型在法律、伦理、科学等领域的严密推理能力。

5. 附加提升策略
• 减少幻觉(Hallucination):结合检索增强生成(RAG)、ReAct(推理+行动)、链式验证等技术,促使模型校验自身输出,降低虚假信息风险。
• 情绪智能调节:通过具体语气提示塑造输出风格,如“用平静语气解释”、“像对10岁儿童讲解”,提示语气直接影响生成文本的情感色彩和接受度。

@jowettbrendan | #技巧 #经验
Claude Code 专业小技巧 | #经验

• 利用全局配置文件 ~/.claude/settings.json,预先设定可信工具列表,实现自动授权运行,提升工作流效率
• 仅针对敏感操作(如删除文件、执行 Git 提交等)主动请求用户许可,确保安全可控
• 通过分层权限管理,既保证自动化体验流畅,又防范风险,达到工具信任与操作自主的平衡
• 构建稳定且透明的 AI 助手使用环境,适合复杂项目的安全协作与持续集成场景
• 洞察:权限的精细划分是智能代理可信度和用户掌控感的基石,推动智能工具普及的前提
微博上的一个话题:建立清晰的语言表达逻辑 | #经验
Simon Willison 分享了他如何使用大型语言模型(LLM)辅助编写代码的经验和技巧

77个HTML+JavaScript应用和6个Python应用,涵盖多种实用场景;完全通过LLM提示生成代码,无需手动编写;支持GitHub Actions自动化部署,节省大量开发时间

tools.simonwillison.net | #经验
Ryan Hart 的LLM学习法:用 AI 助手 Grok 作为个人导师,实现超快速学习。| #经验

提供 8 种学习提示,涵盖从技能特定学习到资源整理的全方位方法;强调个性化学习计划,帮助用户高效掌握任何技能;结合实际案例和加速学习技巧,让学习事半功倍
如何在每一次重要考试中做到超常发挥? | #经验
马蒂·洛德尔教授:“最有效的学习方式” | #经验
上个月,Prajwal Tomar 使用 Cursor 和 V0 同时管理了5个客户的项目,且在有全职工作的情况下高效地完成了这些任务。

推主分享了一系列关于如何让 AI 帮助开发的实用技巧 | 帖子 | #技巧 #经验
 
 
Back to Top