AI 开发者日报 2025-09-16
OpenAI发布GPT-5-Codex编码助手,处理速度提升15倍,支持7小时自主编码。阿里巴巴推出Qwen3-Next 80B混合专家模型,以3B参数实现高性能,支持262K上下文。智能体开发通过Model Context Protocol等工具简化集成,强化学习训练周期缩短至数小时。多模态AI如Holo1.5和腾讯SRPO技术提升图像生成质量。MobileLLM模型仅1.4亿参数,支持边缘计算。基础设施优化实现高吞吐量和低成本推理。硬件性能提升,开源项目活跃。融资与新产品推动AI视频和短信服务发展。整体AI领域快速演进,工具与效率显著提升。
OpenAI发布GPT-5-Codex与智能编码竞赛
-
OpenAI推出GPT-5-Codex(智能编码):OpenAI发布了专为长时间运行、使用工具的软件工程优化的GPT-5变体,支持Codex CLI、IDE扩展、网页、GitHub代码审查和ChatGPT iOS。亮点包括:动态"任务自适应"思考(简单任务快15倍,困难任务更谨慎2倍)、多小时自主性(复杂任务"超过7小时")、改进的指令遵循和代码质量,以及更好的SWE-bench风格性能。OpenAI还提到了一个未发布的大型"重构"基准测试,其中GPT-5-Codex达到51%的准确率,并指出SWE-bench修复用于公平比较。参见@OpenAI、@gdb、@sama、@OpenAIDevs、@OfirPress、@swyx的公告和讨论,以及@swyx关于路由/深度行为的说明("模型中的路由器")。早期实践报告从"更可操控和持久"(@omarsar0)到对token消耗和长循环的沮丧(#1、#2)不等。OpenAI还通过@OpenAIDevs调侃了深度操作系统集成(例如,Xcode登录GPT-5)。
-
评估和编码深度:OpenAI声称SWE-bench改进和新的内部"大型重构PR"评估;社区呼吁公开版本(@OfirPress)。广泛共识认为可变计算和路由在推理时对效率和质量至关重要(@swyx;@polynoamial)。
Qwen3‑Next 80B (A3B MoE)、长上下文与中国效率推动
-
Qwen3‑Next‑80B (3B激活参数)登陆Together + NVIDIA NIM:阿里巴巴的混合MoE模型瞄准长上下文(原生262k,可扩展至1M+)、仓库级代码分析和高效推理。Together AI提供"Instruct"和"Thinking"端点(发布、上下文),NVIDIA通过CUDA加速注意力机制添加了NIM支持(NVIDIA)。阿里巴巴报告"仅用3B激活参数"就实现了强劲性能(@Alibaba_Qwen),并在推理基准测试中与Gemini 2.5 Flash Thinking进行正面比较(@togethercompute)。设备端MLX数据显示在Apple硬件上具有惊人的TPS(@ivanfioravanti、批处理)。
-
架构趋势:混合SSM + MoE:过去两周,7个新MLX-LM架构中有6个是MoE,其中一半混合了SSM/注意力机制(@awnihannun、列表)。中美训练机制对比:受约束的算力推动基础设施/模型协同设计、token效率、线性注意力和测试时缩放重点(@JingyuanLiu123)。社区情绪反映,只要有正确的配方,小模型正变得越来越强大(@Thom_Wolf)。
智能体工具生态:MCP无处不在、Claude Code SDK与工作流"氛围编程"
-
MCP协议整合:Model Context Protocol的价值主张——通过MCP服务器将M×N的工具集成转变为M+N——持续引发共鸣(示意图)。整个技术栈涌现出新的开源项目:DeepMCPAgent(基于LangChain/LangGraph的MCP智能体)(代码库)、Markdown MCP(@dariusemrani)以及企业黑客马拉松展示(讨论串)。LangChain发布了响应式智能体示例(新闻策划、ParserGPT、深度智能体的人机交互循环)(新闻智能体、解析器、人机交互)。
-
Claude Code SDK增强智能体开发体验:Anthropic推出了代码引用、自定义工具和钩子支持,使得定制智能体的构建更加快速(@_catwu)。Replit的Agent 3(无代码"氛围"工作流)和Poke(协调临时子智能体的iMessage智能体)展示了"智能体用户体验"前沿的快速发展(Replit演示、Poke深度解析)。
强化学习在推理与智能体领域的应用:产品中的在线RL、深度研究智能体与新训练机制
-
生产环境助手中的在线强化学习:Cursor的rollout被广泛认为是前沿能力规模化应用的首个案例,业界对将连续训练周期从数月缩短至数周甚至数小时充满热情(@willdepue,后续讨论)。对GRPO之后的进展持续保持浓厚兴趣(@vikhyatk)。
-
深度研究智能体(单智能体RL > 复杂框架):新研究表明,采用长度归一化奖励和策略性工具限制的简单RL配方可以训练出媲美多智能体配置的单智能体;测试时扩展也有帮助(并行搜索+选择最短成功轨迹)(总结,论文)。
-
分层强化学习与去中心化RL:Meta的可扩展选项学习重新架构了分层RL以实现GPU并行批量更新(训练速度提升25倍)(解释)。Gensyn的SAPO在异构节点"集群"中以明文共享rollout(累积奖励提升高达94%)(@TheTuringPost)。腾讯的SimpleVLA-RL通过RL扩展VLA训练(论文)。
-
长时程执行:多项分析指出,在长链任务中,小的步骤精度增益会呈指数级复合;许多失败是执行(而非推理)错误;"思考"模型减少了有害的自条件化(@HuggingPapers,@TheTuringPost,@emollick)。
多模态与计算机使用模型
-
Holo1.5 用于计算机使用代理(开放权重):H公司的新视觉语言模型(3B、7B Apache-2.0、72B)在UI定位和问答方面达到最先进水平——这是实现可靠网页/移动应用使用的核心技能。开放权重、使用手册和演示均已提供(发布、H公司、使用手册)。
-
腾讯SRPO(用于美学/真实性的扩散强化学习):“自调节偏好优化”沿着完整去噪轨迹对FLUX1dev进行微调,将人类评级的真实性/美学提升超过3倍;代码和Space已上线并趋势上升(概述、演示)。
-
MobileLLM-R1(Meta)与设备端推理:Meta推出了从小规模开始训练的推理模型(0.14B/0.35B/0.95B;约4.2T预训练词元),其中1.4亿参数的变体可在浏览器内完全运行(公告、演示)。
-
新数据集/基准测试:SpatialVID(7千+小时带有密集3D标注)用于空间视频智能(@HuggingPapers),以及IntrEx(教育对话中的序列级趣味性标注)(@HuggingPapers)。
系统与基础设施(吞吐量、路由和部署)
-
吞吐量里程碑与平台支持:Fireworks 报告称,在 B200 上运行的 GPT‑OSS‑120B 达到了 540 tokens/s,在其测试中超越了领先的 ASIC(@lqiao)。vLLM 0.10.2 增加了 aarch64 支持(直接在 GB200 上安装 vLLM;多平台镜像),更多性能优化即将到来(@vllm_project)。Ray 2.49 引入了前缀缓存-亲和性路由,以在大型 vLLM 集群中保持 KV 缓存命中率(@seiji_________)。
-
批处理与集群:Together 发布了重新设计的批量推理 API(统一 UI、支持所有模型、3000 倍更高的速率限制—300 亿 tokens—以及大多数无服务器模型 50% 的折扣)(发布)。Prime Intellect 开放了 8-1000+ GPU 集群的预留实例,并支持在现货市场进行二次转售(公告)。
-
内核与 Apple 端加速:Standard Kernel 预览了最小化的 CUDA+PTX 内核,在目标操作上超越了 cuBLAS/FlashAttention3;融合的 LLaMA3 FFN 声称比 PyTorch 性能高出 120%(@anneouyang)。MLX 持续成熟,在 M3 Ultra 上实现高 TPS 批处理,并缩短了全套评估时间(TPS、MMLU-Pro 运行时间)。
-
Qwen 作为可部署构建块:NVIDIA 添加了 Qwen3‑Next NIMs;Baseten 和 Together 集成了“Thinking”/“Instruct”变体用于生产环境(NVIDIA、Baseten、Together)。
热门推文(按互动量,AI/工程领域)
- "将今天的聊天机器人称为'博士级智能'是无稽之谈……真正的AGI不会犯低级错误……我们还需要5-10年。" — Demis Hassabis (5K+)
- rasbt的LLMs-from-scratch项目达到10k forks (6K+)
- "我怀疑社会在电话文化时期比会议文化时期更好。" — @sama (20K+)
- Gemini应用在美国App Store登顶 (5K+)
- OpenAI发布GPT‑5‑Codex (8K+) 和 @sama (10K+)
/r/LocalLlama + /r/localLLM 回顾
DIY 8x AMD MI50/MI60 设备 + 开源移动代理 AndroidWorld 排名第一
- 完成 8x AMD MI50 - 256GB 显存 + 256GB 内存设备,成本 3000 美元 (评分:429,评论:178):在 ASRock ROMED8-2T 主板上构建了 8× AMD MI50/MI60(每张 32 GB)设备,配备 EPYC 7532(32 核)和 8×32 GB DDR4(总计
256 GB 显存 + 256 GB 内存
),成本约3000 美元
(二手);由于 300 mm 延长线问题,PCIe 4.0 不稳定,因此所有 GPU 通过分叉卡运行在PCIe 3.0 x16
模式下。软件:Ubuntu 24.04.3 + ROCm 6.4.3,采用手动解决方法("复制粘贴 gfx906 Tensile")来恢复已弃用的 Vega20(gfx906)支持;通过 llama.cpp 和 vLLM 进行推理。基准测试:仅 CPU 运行 gpt-oss 120B Q8(65 GB)~25 t/s
,提示词处理速度~120 t/s
;2× MI50 相同模型~58 t/s
,提示词~750 t/s
;8× MI50 运行 qwen3 235B Q4_1~21 t/s
,提示词~350 t/s
(llama.cpp);2× MI60(vLLM,gfx906)运行 Llama 3.3 70B AWQ~25 t/s
,提示词~240 t/s
。功耗:空闲时~400 W
(约20 W/GPU
,15 W
/鼓风机,约100 W
平台功耗),llama.cpp 推理平均~750 W
,峰值可达~1100 W
。照片:顶部视图,开放式框架构建。 主要评论关注高空闲功耗(~400 W
),建议从 llama.cpp 切换到 vLLM 以更好地利用此设置的多 GPU 吞吐量。
功耗/空闲功耗:多人注意到设备空闲时功耗约为 ~400W
,有评论者观察到仅鼓风机风扇在空闲时每张卡可能消耗 ~15W
,意味着空闲功耗预算中约 ~120W
可能是风扇。他们询问鼓风机的 RPM 转速,并建议通过 ROCm 工具(例如 rocm-smi --showfan --showtemp
和设置曲线)来检查和潜在降低空闲功耗;MI50 上的风扇控制行为可能显著影响墙插功耗。
- 推理堆栈:建议将此 8×MI50 设置从
llama.cpp
切换到 vLLM,引用 vLLM 的服务器导向功能,如 PagedAttention、连续批处理和 tensor-parallel 支持,这些通常能提高多 GPU 推理的吞吐量和 GPU 利用率。vLLM 支持 ROCm,通常比 llama.cpp 更适合作为大 KV 缓存工作负载的高吞吐量推理服务器(vLLM,llama.cpp)。 - 固件/功耗调优:一位用户建议为 MI50 刷入
v420
VBIOS,该固件设置默认功耗限制为178W
,并可通过rocm-smi
根据需要增加。使用 ROCm SMI,用户可以检查和调整每 GPU 的限制和风扇(例如rocm-smi --showpowercap
、-setpoweroverdrive
、-setsclk
、-setfan
)以平衡性能与热管理/功耗(ROCm SMI 文档)。
更新:我们复仇成功,现在击败了 Deepmind、Microsoft、Zhipu AI 和 Alibaba (评分:210,评论:61):来自 Minitap AI 的开源移动应用代理报告称,在社区运行的 AndroidWorld 排行榜 上性能跃升至 #1
,超过了归因于 DeepMind、Microsoft Research、Zhipu AI 和 Alibaba 的条目。该代理在 Android UI 中执行端到端任务(例如叫车、订餐、应用导航),团队指出正在进行 RL gym 的微调工作;代码已在 github.com/minitap-ai/mobile-use 完全开源。 评论者质疑实际用例(例如,这主要是 QA/自动化吗)并挑战其新颖性,认为这可能是一个测试框架而非实质性的模型进步;其他人则对开源发布表示赞赏。
- 几位评论者认为"击败 DeepMind/Microsoft/Zhipu/Alibaba"的说法可能反映了特定基准测试的评估框架,而非模型训练或架构的进步。他们指出这是一种包装导向的方法(提示词工程、路由或启发式逻辑),可以在特定评估中提高分数,使得与全栈研究实验室的比较不够公平;贡献似乎更像是一个评估/代理框架,而非新的 SOTA 模型。
- 存在关于 奖励黑客 的强烈警告:针对公共 排行榜 鼓励过度拟合指标怪癖或数据集伪影,在没有真正能力提升的情况下夸大分数。严肃的团队据称将 LB 视为健全性检查,并强调私有保留集、跨基准验证和泛化测试;因此,任何"胜利"都应在未见任务或私有分割上进行验证后才能得出结论。
- 提到的潜在实际用例是 QA 流水线和媒体处理工作流,例如音频清理/降噪以及从具有严格文件名约束的特定目录自动插入图像。对于这些,鲁棒性和可重现性很重要:确定性批处理、清晰的 I/O 合约(文件通配、路径验证、错误处理)和可配置流水线可能比排行榜性能更有影响力。
/r/Singularity, /r/Oobabooga, /r/MachineLearning, /r/OpenAI, /r/ClaudeAI, /r/StableDiffusion, /r/ChatGPT, /r/ChatGPTCoding, /r/aivideo, /r/aivideo
待完成
1. 智能编码升级与工作流优化
- Codex 提升代码自主性:OpenAI 宣布升级 GPT‑5‑Codex,这是专为智能编码优化的 GPT‑5 版本,现已在 Codex CLI、IDE 扩展、网页端、移动端以及 GitHub 代码审查中全面可用,详情参见Codex 升级介绍。此次发布强调在代码生成和审查方面实现更深层次的工具使用,扩展了智能编码任务的平台覆盖范围。
开发者们对更广泛的可用性表示欢迎,同时也指出了长工具链中的可靠性问题;一份报告指出更新后 -resume
标志失效,详见实用总结:GPT‑5 Codex。社区讨论既抱有高期望又保持务实态度,有用户抱怨升级后*"无法恢复对话"*。
fastWorkflow 革新工作流程:fastWorkflow 框架的新实现在 Tau Bench 开发集上达到了 Claude Opus 4.1 的水平,使用 DSPy 进行智能体和参数提取,展示在 radiantlogicinc/fastworkflow。演示使用该仓库的零售工作流示例,将多步骤任务构建为可靠、可测试的流水线。
- 实践者强调,具有类型签名的可重现工作流使智能体行为更加健壮和可比较,指出此运行*"在 Tau Bench 开发集上匹配 Claude Opus 4.1"*。该讨论邀请进一步实验和扩展,以在保持评估纪律的同时推动智能体自主性。
Overclock 编排智能体:对智能自动化的聚焦强调了通过 Overclock Work 实现的简洁性和强大模型路由。参与者将其视为围绕顶级模型标准化执行的方式,具有面向生产工作流的直观用户体验。
- 观察者建议一些组织已经在智能体后端投入大量资源,将从简化的编排层中受益。讨论聚焦于实际部署态势——优先考虑端到端智能体的可靠性、可观测性和成本控制。
2. 数据集与个性化语音
- FinePDFs 提供 3T 词元:Hugging Face 发布了 FinePDFs 数据集,包含来自 4.75 亿份文档的约 3 万亿词元,涵盖 1733 种语言,数据来源完全来自 PDF 文件:FinePDFs 数据集。指南建议将 PDF 数据控制在完整混合数据的 25% 以下,其中将 PDF 与 HTML 语料库结合使用可提升基准测试性能。
构建者称这是预训练和领域适应的优质补充,当与网络数据谨慎混合时效果显著。讨论强调数据组合比原始数据量更重要,指出多格式混合是实现强大泛化能力的关键。
OpenHelix 升级版:更新了更高质量的 OpenHelix-5x50k 数据集,改进了分割一致性和训练/评估的整理工作:OpenHelix-5x50k。此次更新专注于更可靠的分区,使比较和消融实验更加清晰。
- 用户欢迎更清晰的分割以实现可重复实验和数据集卫生。此次更新解决了先前的不一致性问题,这些问题曾使微调和 RAG 系统的跨运行评估变得复杂。
Voxtral 语音胜利:Voxtral 为有语言障碍或口音的用户提供快速个性化语音微调功能,在 A6000 上每小时成本约 0.26 美元,并与数据集工具配对使用:VoxFactory (HF Space)。微调完成后,您可以发布模型和数据集,并启动一个免费的 CPU 演示空间进行试用。
- 社区反馈强调了可访问性和零摩擦演示,称赞其"可与 CPU 配合使用!!免费!!"。构建者将其视为以最小基础设施实现个性化 TTS/ASR 模型的实用途径。
3. 模型生态系统:移动端、标准化与弃用
- MobileLLM 推进设备端部署:Facebook 发布了 MobileLLM-R1-950M,旨在推动更强大的设备端语言建模能力:facebook/MobileLLM-R1-950M。该模型的目标是在保持足够推理能力以处理有用本地任务的同时,减少对云服务的依赖。
工程师们将其视为边缘推理的重要进展,特别是在延迟、隐私和离线恢复能力至关重要的场景中。讨论主要围绕十亿参数以下模型的设备占用空间和实际应用目标展开。
Qwen3-Next 标准化规范明确:Qwen3-Next-80B-A3B-Instruct 的技术文档明确说明其使用 RMSNorm(零中心化 gamma;训练中对归一化尺度进行权重衰减),而非 layernorm:Qwen3-Next-80B-A3B-Instruct。在推理时采用标准的 RMSNorm,与其报告的稳定性技巧保持一致。
- 读者们赞赏这种对归一化细节的透明度,因为归一化选择直接影响训练稳定性和吞吐量。这一澄清解决了早期表述造成的混淆,有助于实现者准确复现推理时行为。
Grok 2 退役,3/4 接棒:xAI 已弃用 grok-2-1212 和 grok-2-vision-1212,建议迁移至 grok-3(文本)和 grok-4(视觉):grok-2-1212 • grok-2-vision-1212 • grok-3 • grok-4。开发团队应及时更新集成以避免服务中断。
- 参与者将此解读为不断演进的模型生命周期策略,通过弃用来集中维护重点并推动更好的默认选择。迁移讨论主要围绕能力对等性、视觉需求和发布时间安排展开。
4. GPU系统、注意力内核与内存模型
- Metal MFA实现多语言支持:Metal Flash Attention的跨语言桥接现已落地,在universal-metal-flash-attention中提供了C、Rust和Obj-C绑定。作者添加了带反向传播的量化注意力,报告称在大规模形状上实现了速度提升和内存节省。
框架开发者讨论了向量化因果掩码以及与PyTorch自定义操作的集成,以构建端到端流水线。早期用户将其视为在不牺牲语言灵活性的前提下实现Apple Silicon加速的实用路径。
从第一性原理理解Flash Attention:一个教程系列深入探讨了Flash Attention内部机制,包括向量化存储体冲突、数据重排和常见的CUTLASS优化:第四部分 • 第五部分。这些文章通过内核级推理来阐明性能权衡。
- 工程师们称赞这种逐步推导的方法降低了在生产环境中使用定制内核的门槛。该系列鼓励读者根据自身的形状和缓存实际情况进行分析、融合和定制注意力机制。
Iris对称内存模型实现突破:ROCm项目Iris引入了具有全局对称堆的对称内存模型,简化了地址转换并为更便捷的RDMA铺平了道路:ROCm/iris以及配套演讲:YouTube。该设计从预构建堆中切片张量,使每个rank只需跟踪单个基指针。
- 内核开发者将其与CUDA的对称内存进行比较,指出了转换开销和缓存影响。该线程将Iris视为分布式训练人机工程学和未来多节点加速的有前景方案。
5. 融资与基础设施辩论
- Higgsfield 豪取5000万美元融资:AI视频初创公司Higgsfield宣布完成由GFT Ventures领投的5000万美元A轮融资,并声称实现了5000万美元的年化收入,三个月内增长4.5倍,同时推出了面向Z世代创始人的基金:公告推文。该计划包括Higgsfield Ventures来支持AI原生团队。
评论者称这一速度过于激进,并质疑视频模型能多快转化为稳定的收入。对Z世代的关注旨在在快速迭代的创意工具领域实现创始人-市场契合度。
**Poke.com 推出1500万美元的AI管家服务**:Poke.com推出了AI短信服务,同时完成了由General Catalyst领投的1500万美元A轮融资:发布推文。该产品通过代你发送短信来协调计划(聚会、约会、旅行)。
- 怀疑者质疑其长期实用性和语气控制,同时称赞其流畅的用户体验。辩论集中在用户留存率、交接质量以及如何让AI感觉像人但不过度越界。
S3向量与向量数据库之争:Zilliz的分析文章探讨Amazon S3向量是否会威胁还是推动向量数据库发展:Amazon S3向量会杀死向量数据库还是拯救它们?。文章引用了一个惊人的数据点:一个流行的AI笔记应用在向量搜索上的花费是OpenAI API调用的两倍。
- 基础设施工程师们就本地NVMe到对象存储的成本/延迟权衡进行了辩论,关注混合层级和缓存方案。许多人认为未来是工作负载感知的放置策略,而非一刀切的嵌入基础设施。