科研人员和学生做报告还在手动做PPT?Paper2Slides帮你一键生成专业幻灯片和海报,支持PDF、Word等多种文档格式,精准提取关键内容,自动排版成高质量演示稿。| #工具

它内置多种主题风格,也支持用自然语言定制样式,生成速度快,支持断点续作,无需担心中途丢失进度。命令行一条指令即可完成转换,极大节省制作时间。

项目开源,适合科研展示、会议汇报和教学演示,帮助你从论文到演示一气呵成。

主要功能:
- 多格式文档支持(PDF、Word、Excel、Markdown等)
- 基于RAG技术的内容精准提取和索引
- 保留内容与原文对应,杜绝信息偏差
- 多样化主题与自定义风格
- 快速生成和实时预览
- 断点保存与续作,随时切换样式
- 支持幻灯片和海报两种输出形式

支持Python环境下运行,方便科研人员和教育工作者高效制作演示材料。
3条关键提示词帮你用Gemini轻松掌控学习,告别混乱笔记和难啃教材。| 帖子

1. 超级笔记生成器
提示词示例:
“以下是我的原始笔记: [粘贴你的笔记]。请将它们整理成清晰的学习指南,分为概念、定义、图示、例题和学生常错点,确保内容易于记忆,不可遗忘。”

2. PDF深度解剖
提示词示例:
“请将这份PDF总结为三层结构:
第一层:简单易懂的解释
第二层:更深入的理解
第三层:适合高级考试的深入见解
请保留公式、例题和关键区分点。”

3. 考试备考引擎
提示词示例:
“帮我制定一个关于[主题]的考试备考计划,分为:
• 核心概念
• 必背内容
• 常见考试陷阱
• 带答案的练习题
• 7天复习路线图。”

用户反馈,利用这三条提示,Gemini能把零散混乱的学习材料转化为高效的知识体系,帮助记忆率从40%提升到95%。这不仅是工具,更是打开学霸大门的钥匙。
Google发布了一份关于多智能体系统上下文工程的权威指南,提出了高效管理上下文的全新思路。核心在于用“工作上下文”、“会话”、“记忆”和“工件”四层结构替代传统庞大的提示语,有效降低了信息冗余和模型幻觉。| #指南

每次调用时,系统通过有序流程和处理器,从指令、精选会话事件、记忆结果和工件引用重建工作上下文。会话日志经过噪声过滤和格式化,变为清晰的聊天历史输入模型请求。

通过上下文压缩、过滤和缓存,旧信息被总结,没用事件被丢弃,稳定的前缀得以复用。大体量信息转为工件存储,长期知识保存在记忆中,记忆服务仅提取相关片段注入窗口,极大节省了Token消耗。

多智能体系统中,代理作为工具协同工作,子代理只访问所需上下文,防止幻觉和错误行为,保证效率和准确性。Google强调,将上下文工程视为与存储和计算同等重要的基础设施,而非简单的提示堆砌,是构建大规模多智能体系统的关键。

这套方法不仅能减少60%-80%的Token使用,还能显著提升多代理系统的稳定性和响应速度,真正推动生产级AI系统的落地。
在OpenAI的研究科学家面试中,遇到“如何将大语言模型(LLM)的上下文长度从2K扩展到128K?”这个问题时,直接说“我会用128K上下文的长文档微调模型”是远远不够的。真正的挑战远超简单微调。| 帖子

扩展上下文长度意味着面对注意力机制的平方级计算复杂度:上下文长度扩大8倍,内存需求飙升64倍。这是硬件和算法上的巨大难题。

解决方案主要有三条路:

1. 稀疏注意力(Sparse Attention)
限制模型只关注部分重要token,比如局部邻近或由模型自动学习关键token。就像读书时理解当前章节比时时关注全书更高效,但偶尔回顾全局脉络依然必要。稀疏注意力在性能和计算成本间权衡,既提高效率又保留关键信息。

2. Flash Attention
这是一种硬件优化技术,利用GPU内部快速缓存减少数据在高速缓存(SRAM)和慢速主存(HBM)间的冗余传输,保持全局注意力的精确度,同时加速计算,速度提升可达7倍以上。

3. DeepSeek Sparse Attention(DSA)
DeepSeek V3.2模型引入的DSA,通过轻量级索引器筛选重要token,把计算复杂度从O(L²)降到O(Lk),k为固定小值。比如128K上下文中,每次只计算约2048个关键token,大幅降低计算和成本,同时保持甚至提升性能。

实际效果是,128K上下文的预填充成本降低近一半,解码成本下降三分之二,且在长上下文评测中表现更优。

这背后折射出一个核心真理:扩展上下文不仅是“加长输入”,而是对模型架构、硬件资源、内存管理和算法设计的综合考量。简单的微调无法解决根本问题,必须结合稀疏机制、硬件优化与智能索引等多维创新。

正如一位专家所说,“128K上下文是几何问题也是计算问题”,需要局部高分辨率注意力结合稀疏全局结构,利用多尺度位置编码,构建层次化的上下文理解,而非简单平铺展开。

总结:想做出128K上下文的LLM,靠蛮力不行,必须用“少而精”的策略,善用硬件优势,设计高效稀疏机制,才能在保持性能的同时控制资源和成本。
构建和探索知识图谱从未如此直观。| #知识图谱

GraphRAG Workbench
是一个基于微软 GraphRAG 框架的现代化交互式 Web 应用,支持将文档转化为沉浸式的3D知识图谱。

你可以在三维空间中实时浏览实体、关系和社区结构,利用智能节点大小、颜色分区和动态过滤,轻松发现数据背后的隐藏联系。

功能亮点包括:
- 支持PDF批量上传与自动文本提取,文档管理高效便捷;
- 3D可视化界面支持平滑动画和多层社区检测,结构一目了然;
- AI驱动的实体提取与关系映射,结合自然语言聊天接口,实现智能查询和分析;
- 支持多种搜索模式和社区聚焦,帮助深入挖掘复杂图谱信息;
- 课堂级别的进度跟踪与日志记录,方便管理知识图谱版本和历史。

项目基于 Next.js 和 React Three Fiber,界面响应式设计,适合桌面和平板设备。只需配置 OpenAI API,即可快速启动本地服务,适合科研、教育及企业数据分析使用。
NeurIPS 2025汇聚了机器学习与神经计算领域的前沿突破,这里为你精炼总结15篇优秀论文,涵盖获奖佳作与热门话题,助你快速抓住核心洞见。| 帖子 | #机器学习

1. 【Faster R-CNN:实时目标检测新里程碑
引入区域提议网络(RPN),共享卷积特征实现近乎无额外计算的候选框生成,助力Fast R-CNN以5fps速度高效检测,荣获Test of Time奖。

2. 【人工蜂群效应:语言模型的同质化困境
发布大规模开放式提示集Infinity-Chat,揭示LLM生成答案高度趋同的“人工蜂群”现象,深入分析输出多样性崩塌及人类偏好差异。

3. 【转导在线学习的最优错误界限
解决30年悬案,精确量化未标记数据在在线学习中的价值,建立转导学习对比传统方法的平方级优势,理论与实践紧密匹配。

4. 【大语言模型的门控注意力机制
首次系统探究门控对软max注意力的影响,简单的头部Sigmoid门控显著提升性能与训练稳定性,缓解注意力汇聚问题,增强长上下文能力。

5. 【叠加效应驱动稳健神经网络扩展
通过控制叠加现象,揭示“模型越大损失越低”的神经扩展律根源,验证开源LLM及Chinchilla规模律的广泛适用性,揭示规模律何时失效。

6. 【扩散模型为何不陷入记忆过拟合
发现训练中存在早期泛化与后期记忆两个时间尺度,数据集越大泛化窗口越宽,隐含动态正则化机制帮助避免过拟合。

7. 【强化学习是否真正激发LLM推理能力?
批判性分析RLVR训练,指出其提升的是采样效率而非根本推理能力,模型推理边界受限于基础模型,强调需创新RL范式以释放潜力。

8. 【千层网络助力自监督强化学习
将RL网络深度扩展至1024层,在无奖励无示范的目标驱动任务中,实现性能翻倍至50倍的飞跃,行为学习质的改变带来巨大进步。

9. 【Titans + MIRAS:赋予AI长期记忆
提出Titans架构和MIRAS理论框架,结合深度MLP记忆和“惊讶度”机制,实现运行时动态更新核心记忆,突破百万级上下文规模限制。

10. 【基于扩散蒸馏与对抗校准的生成式数据增强
DAR-GDA三阶段流水线:蒸馏高效单步生成器,对抗训练校准合成与真实分布差异,重要性重加权消除偏差,提升下游任务表现。

11. 【重尾RNN中的低维混沌渐进转变
揭示具有脑部特征的重尾权重RNN在混沌边缘的动态不同于高斯权重,延展转变期同时降低系统有效维度,丰富神经动力学理解。

12. 【半监督多模型性能评估
提出SSME方法,结合标记与未标记数据,通过预测与真实标签关系建模,显著提升数据匮乏时分类器性能估计的准确度。

13. 【黎曼一致性生成模型
扩展一致性模型至曲率空间,利用指数映射与协变导数实现流形上少步生成,适用于球面、环面与3D旋转等复杂几何结构。

14. 【BioReason:DNA-LLM中的多模态生物推理
将基因组模型与LLM结合,实现对基因数据的生物学推理,提升路径和变异预测准确率,推动生物信息学与语言模型融合。

15. 【NFL-BA:动态光照下的近场光束调整SLAM
引入近场光照建模SLAM损失,大幅提升内窥镜及暗室环境下相机定位与地图构建精度,突破动态光照挑战。
Back to Top