是一款开源的 AI 助手,将 Google 的 Gemini 模型的强大功能直接带入你的终端。它作为一个对话式的“智能”命令行工具工作——这意味着它能够推理你的请求、选择工具(如执行 shell 命令或编辑文件),并执行多步计划以帮助你的开发工作流程。
提示 1:使用 GEMINI.md 以保持持久上下文
提示 2:创建自定义斜杠命令
提示 3:通过您的自有 MCP 服务器扩展 Gemini
提示 4:利用记忆添加和回忆
提示 5:使用检查点和 /restore 作为撤销按钮
提示 6:读取 Google Docs、Sheets 等
提示 7:使用 @ 引用文件和图像以明确上下文
提示 8:动态创建工具(让 Gemini 构建助手)
提示 9:使用 Gemini CLI 进行系统故障排除和配置
提示 10:YOLO 模式 - 自动批准工具操作(谨慎使用)
提示 11:无头和脚本模式(在后台运行 Gemini CLI)
提示 12:保存并恢复聊天会话
提示 13:多目录工作空间 - 一个 Gemini,多个文件夹
提示 14:使用 AI 协助整理和清理文件
提示 15:压缩长对话以保持上下文
提示 16:通过 ! 传递 Shell 命令(与终端对话)
提示 17:将每个 CLI 工具视为潜在的 Gemini 工具
提示 18:利用多模态 AI - 让 Gemini 查看图像等
提示 19:自定义 PATH(以及工具可用性)以提高稳定性
提示 20:通过令牌缓存和统计信息跟踪和减少令牌消耗
提示 21:使用 /copy 进行快速剪贴板复制
提示 22:掌握 Ctrl+C 用于 Shell 模式和退出
提示 23:通过 settings.json 自定义 Gemini CLI
提示 24:利用 IDE 集成(VS Code)获取上下文和差异
提示 25:使用 Gemini CLI GitHub Action 自动化仓库任务
提示 26:启用遥测以获取洞察和可观察性
提示 27:关注路线图(背景代理等)
提示 28:通过扩展来扩展 Gemini CLI
提示 29:柯基模式彩蛋 🐕
作者成功在纯C中重新实现了OpenAI的tiktoken库,并通过ARM64 SIMD指令集优化,实现了显著性能提升:
英文文本处理速度达6100万token/秒(单核无GPU)
相比Python tiktoken平均加速6.8-17.6倍
内存占用约22MB,加载时间7ms
一位前谷歌DeepMind研究员直言,Gemini 3虽然在网页开发上表现不错,但在真正的编码工作中却常显“为测试而优化”,缺乏面对复杂真实项目时的稳定性和适应力。它在演示中光鲜亮丽,却难以胜任“战场”上的各种边缘场景。
许多开发者的共鸣在于:真实编码远比基准测试复杂。模糊需求、遗留代码、依赖地狱和异常逻辑才是日常。Gemini 3在这些方面表现不佳,甚至出现误删API、无法处理文档、过度冗长等问题。相较之下,Claude、Opus等模型在实际使用中更靠谱,能更好地完成开发者需求,减少反复调试的负担。
这反映出业界普遍的“基准测试与实际应用脱节”问题。模型往往为了在指定任务中拿高分而“走捷径”,缺乏对真实复杂环境的理解和适应能力。真正有价值的AI助手,应能深入代码上下文,理解含糊需求,适应多变场景,甚至能通过持续测试和反馈不断自我进化。
总结来看,Gemini 3虽有潜力,但仍需从“演示王”向“实战王”转变。开发者应理性看待各种AI工具,结合自身项目实际反复验证,而非盲目追随营销榜单。未来的AI编程助手,必然是多模型优势互补、不断学习进化的智能协作体,才能真正助力复杂软件开发的突破。
许多开发者的共鸣在于:真实编码远比基准测试复杂。模糊需求、遗留代码、依赖地狱和异常逻辑才是日常。Gemini 3在这些方面表现不佳,甚至出现误删API、无法处理文档、过度冗长等问题。相较之下,Claude、Opus等模型在实际使用中更靠谱,能更好地完成开发者需求,减少反复调试的负担。
这反映出业界普遍的“基准测试与实际应用脱节”问题。模型往往为了在指定任务中拿高分而“走捷径”,缺乏对真实复杂环境的理解和适应能力。真正有价值的AI助手,应能深入代码上下文,理解含糊需求,适应多变场景,甚至能通过持续测试和反馈不断自我进化。
总结来看,Gemini 3虽有潜力,但仍需从“演示王”向“实战王”转变。开发者应理性看待各种AI工具,结合自身项目实际反复验证,而非盲目追随营销榜单。未来的AI编程助手,必然是多模型优势互补、不断学习进化的智能协作体,才能真正助力复杂软件开发的突破。
- 智能搜索引擎Kimi K2,快速精准定位内容
- 多格式支持(PDF、图片、文档等)一键转幻灯片
- 完全可编辑,支持PPTX导出,方便二次创作
- 设计师级视觉效果,自动生成信息图表与插画
感恩节特别福利:限时48小时免费无限制试用,零门槛体验未来演示新方式。用户反馈显示视觉效果惊艳,操作简便,帮助大幅提升工作效率和视觉冲击力。部分用户提出对图表编辑灵活性和API开放的期待,也体现出市场对更深度集成和定制的需求。
DeepScholar的核心技术依托于LOTUS,这是一个开源的语义查询引擎,采用AI驱动的语义操作符,能高效批量处理海量文献。团队围绕真实科研写作需求设计,特别是论文相关工作综述部分,平均需要处理20多篇文献,DeepScholar能精准完成这一复杂任务。
系统综合评估涵盖知识合成质量、检索准确度及结果可验证性,表现优异。虽然目前面临访问高峰带来的稳定性挑战,开发团队积极修复,欢迎社区贡献和反馈。
同时,项目开源了基准测试数据集与代码,及LOTUS引擎,助力科研与开发者打造更强大的研究辅助工具。公开的排行榜和论文为行业提供了参考标准和发展方向。
这一创新不仅展示了AI在学术研究领域的巨大潜力,也启示我们:面对日益爆炸的信息量,智能筛选和高质量合成是未来科研的关键。DeepScholar证明,技术进步能让学术知识更快、更准确、更易获取,推动科学发现的速度和深度。