AI 开发者日报 2025-08-10
OpenAI发布GPT-5,取消手动选择模型功能改用智能路由系统,引发高级用户不满。微软Copilot已迁移至GPT-5,API流量激增。GPT-5在多项基准测试中表现优异,但token消耗增加。开源社区Qwen模型实现100万token上下文窗口,llama.cpp优化使大模型可在消费级硬件运行。开发工具方面,Cursor推出CLI工具,LlamaIndex支持GPT-5,Unsloth发布免费微调工具。多模态领域,Gemini Pro视频生成功能进步明显,Google Genie 3研究被视为下一代交互突破。
OpenAI发布GPT-5:统一用户体验、路由争议与修复措施
- “统一的GPT-5”与模型选择器的终结:OpenAI将GPT-5定位为一个跨模型家族和“思考”模式的单一路由体验,弃用了ChatGPT中的手动模型选择功能,并推动开发者停止构建“模型选择器”。详情可参考OpenAI团队负责人@nickaturley的产品设计立场以及@ElaineYaLe6的发布推文。
- 路由问题与计划限制(Plus vs. Pro):高级用户很快报告了对“推理”模型的访问受限、路由不可预测,以及Plus计划限制相比o3/o4-mini时代大幅下降(例如“每周200次”的思考上限)。高价值讨论总结了这些投诉(“Plus用户被坑了”、Sankey分析、价值下降)。OpenAI承认发布时自动切换功能存在问题,并承诺修复:@sama表示将加倍Plus计划的思考限制,恢复4o作为可选模型,提高当前模型的透明度,改进决策边界,并添加更简单的手动“思考”触发功能。OpenAI设计后续更新在此:@nickaturley。
- 延迟与吞吐量优化:GPT-5为高价格层级引入了“优先处理”功能以降低首次响应时间(TTFT)(@jeffintime)。对于低延迟用例,可使用“service_tier: priority”、“reasoning_effort: minimal”和“verbosity: low”以目标约750毫秒的P50 TTFT(@kwindla)。早期路由设计在大量视觉输入上增加了约2-3秒的延迟(@swyx)。
- 采用率与流量:微软表示100%的Copilot用户现已运行在GPT-5上(Mustafa Suleyman),OpenAI报告API流量在24小时内大约翻倍(@sama)。Kevin Weil指出发布后几小时峰值吞吐量达到“每分钟20亿词元”(@kevinweil)。
- 文档、指南与一些小问题:OpenAI发布了一系列迁移、提示词和功能指南(@omarsar0),但也出现了一些退步(例如CI捕获的首个代码示例错误;@jeremyphoward)以及语音模式发布不顺利(@juberti)。
GPT-5早期表现:推理能力强劲,但在路由、成本和效率方面存在局限
- 学术/推理基准测试:
FrontierMath:GPT-5(高推理能力)创下新纪录——24.8% ±2.5%(第1-3级)和8.3% ±4.0%(第4级),部分测试甚至达到100k token上限(@EpochAIResearch,后续讨论)。LiveBench同样显示GPT-5位居榜首(@scaling01)。在SimpleBench和长上下文任务中,GPT-5表现显著提升(@gdb,@scaling01)。
-
创意/幻觉控制:GPT-5在“提供文本”任务中创下控制虚构内容的新高(@LechMazur),并在短篇故事写作基准测试中领先;GPT-5-mini在该任务中击败o4-mini(@LechMazur)。
-
LisanBenchV2(单词阶梯):显示强化学习“推理”痕迹较重——Grok-4领先;o3和Claude 4 Sonnet Thinking略胜GPT-5;OpenAI在有效性比率(错误意识)方面占据优势(@scaling01,Grok-4总结)。在WeirdML测试中,GPT-5达到SOTA水平(@scaling01)。
编程/代理任务:
-
SWE-bench Verified(小型代理):GPT-5约65%,GPT-5-mini约60%,GPT-5-nano约35%;仍略低于Opus 5(约68%),与Sonnet 4(约65%)持平,但成本优势明显,尤其是mini版本(@KLieret)。Cline社区指出GPT-5的“精密仪器”特性——提示词精确时表现极佳,但面对模糊性时较为脆弱,diff-edit失败率约6.9%,高于Claude/Qwen(@cline)。
-
实际案例:在调试和指令遵循方面表现强劲,尤其是在Cursor/Codex CLI环境中(@willccbb,@sound4movement,@Ishaank1999)。
成本、分词和冗长性:早期文档理解测试发现,GPT-5在相同视觉提示下消耗的token数量是GPT-4.1的4-5倍,可能是由于内部“思考”更冗长,从而削弱了$/1M token的实际优势(Jerry Liu)。预计成本将因任务和路由策略的调整而变化。
扩展与计算:Epoch指出,GPT-5可能打破了历史上“每代约100倍训练计算”的趋势,表明其战略重点转向训练后的优化、路由和效率,而非单纯依赖预训练规模(讨论)。
智能代理与开发者工具:Cursor CLI访问、Claude Code后台任务、LangChain/LlamaIndex集成
- Cursor/Codex CLI:ChatGPT计划用户现已支持GPT‑5,提供宽松但动态调整的速率限制;欧盟地区在发布初期暂未开放;若限制误用可通过/logout缓解;每周+5小时重置,持续优化中(@embirico)。多位开发者反馈,在正确引导下,GPT‑5生成的代码可靠、简洁且“不过度设计”。
- Claude Code更新:新增长时间运行的后台任务(实时监控bash),以及可自定义的终端状态栏——这些功能提升了代理编程的体验(@_catwu,状态栏)。
- OpenAI“自定义工具”与引用功能:现已支持正则表达式/语法约束的工具参数,并集成到LangGraph和LangChain代理中(LangChain,@chester_curme)。Anthropic的“搜索结果作为内容块”功能已支持原生引用,并已被LlamaIndex和LangChain集成(LlamaIndex,LangChain)。
- Google的Jules代理:现可主动搜索网络以获取最新上下文,从而提升代码生成质量(@julesagent)。
开源模型、长上下文与训练/推理基础设施
- OpenAI GPT‑OSS:
格式与事后分析:Harmony数据集格式现已在HF Datasets上支持(HF);深入探讨“Attention Sinks”及其在OpenAI OSS模型中的应用(@Guangxuan_Xiao)。社区修复了聊天模板、频道标签和精度问题;提供了MXFP4推理和Unsloth微调的Colab示例(@danielhanchen)。英特尔发布了20B 2/4位GGUF模型(@HaihaoShen)。
行为研究:对GPT‑OSS‑20B生成的早期探索揭示了分布/风格上的异常;更多关于模型间提取/比较的内容即将发布(@jxmnop)。
Qwen:1M标记上下文与编码工具:Qwen3‑30B‑A3B‑2507和Qwen3‑235B‑A22B‑2507现在通过Dual Chunk Attention(长度外推)和MInference(稀疏注意力)支持高达1M标记的上下文,报告显示在接近1M标记时速度提升高达3倍,并与vLLM/SGLang兼容(@Alibaba_Qwen)。Qwen Code CLI提供每天2,000次免费运行,用于“氛围编程”(发布)。
训练/推理栈:
- PyTorch FlexAttention及关于块稀疏与任意掩码的讨论(无需自定义内核)(@cHHillee)。
- Hugging Face Accelerate v1.10:N维并行(轻松堆叠DP/TP/PP)和清晰配置,附带对比博客(@m_sirovatka,@TheZachMueller)。
- Axolotl v0.12:多节点N维并行训练、FP8支持、GPT‑OSS微调以及TiledMLP的FSDP(@axolotl_ai)。
- vLLM中国生态系统:腾讯总部260+开发者;来自主要中国实验室的演讲,介绍如何采用vLLM实现规模化(@PyTorch)。
Google、Anthropic与大模型之外的关键
- Google的两周冲刺:Demis Hassabis强调了密集的发布节奏,包括Genie-3(世界模拟)、Gemini 2.5 Pro Deep Think、IMO金牌级成果、AlphaEarth、Aeneas(古代文本)、Storybook、Kaggle Game Arena、Jules GA等(@demishassabis)。NotebookLM的“视频概述”作为一种解释性格式受到了广泛好评。
- 主动学习用于微调:Google Research声称通过专家标签的可扩展主动学习,微调所需数据量减少了几个数量级——一项实验将100k数据减少到1k。
Qwen新增100万token支持
Qwen为Qwen3-30B-A3B-Instruct-2507和Qwen3-235B-A22B-Instruct-2507新增100万token支持(评分:229,评论:21):**Qwen宣布为Qwen3-30B-A3B-Instruct-2507和Qwen3-235B-A22B-Instruct-2507提供100万token的上下文窗口支持,并声称在大序列长度上比标准注意力快3倍。实现依赖于vLLM和sglang等推理引擎,但不支持llama.cpp。实际使用100万token上下文需要约240GB的GPU内存。**评论指出该基础模型在本地编码任务中的实用性,并提到正在通过EXL2进行量化。用户对是否提供支持100万token的API版本表示兴趣,目前尚不明确。
开源与专有AI模型的基准与辩论
Design Arena前十名中有一半是开源模型,且均来自中国(评分:192,评论:31):**图片显示Design Arena基准测试的前十名模型,其中一半是开源模型,且均来自中国(GLM可能来自新加坡)。讨论指出这些开源模型(如Qwen3 Coder、DeepSeek R1-0528、DeepSeek V3-2024和Qwen3 Instruct 2507)在对抗专有模型时表现出高竞争力,并认为开源正处于AI设计的黄金时代。**评论中批评当前AI设计模型的实际能力,指出其缺乏基本设计质量(一致性、审美)。
在消费级硬件上高效运行大模型
120B模型仅需8GB显存即可运行(评分:636,评论:81):**用户展示了llama.cpp中的-cpu-moe
选项,使得120B MoE模型可以在消费级硬件(如8GB显存的GPU)上高效运行,仅需约5-8GB显存,专家层在CPU上执行(如14900K CPU上25T/s)。**评论中提供了详细的配置和性能数据。
AI社区热议:OpenAI GPT-5争议与Wan 2.2视频模型进展
以下是关于AI相关Reddit社区的热门讨论总结:
1. OpenAI GPT-5发布引发的争议与模型移除风波
- OpenAI移除模型选择器以节省成本:用户批评OpenAI取消了ChatGPT Plus订阅者的显式模型选择功能,认为这是为了将查询重定向到更便宜、性能较低的模型。尽管部分用户表示GPT-5在输出质量和速度上有所提升,但仍有用户抱怨其响应风格更偏向中性,缺乏人性化。
- GPT-5的强制迁移引发不满:OpenAI突然移除旧版模型(如GPT-4o、4.5等),导致用户无法回退或选择其他模型。专业用户尤其不满,认为此举影响了工作流程的可靠性。
- 用户对GPT-5的评价两极分化:部分用户认为GPT-5在数学和代码生成方面表现不佳,甚至不如旧版模型;而另一些用户则称赞其响应速度和改进的推理能力。
2. GPT-5的基准测试与性能对比
- SimpleBench测试结果:GPT-5在SimpleBench测试中得分56.7%,排名第五,低于部分竞争对手(如Gemini)。用户对OpenAI的营销宣传与实际性能之间的差距表示失望。
- 数学能力问题:GPT-5在基础算术问题上表现不佳,甚至不如GPT-3.5 Turbo,引发对模型退化的担忧。
- 模型版本差异:用户指出,公开的基准测试结果仅针对高配版“GPT-5-thinking-high”,而普通用户使用的“GPT-5-main”性能可能更低。
3. Wan 2.2视频AI模型的工作流与发布
- Wan 2.2的工作流优化:社区分享了使用Wan 2.2进行图像到视频生成的详细流程,包括LoRA组合、帧插值等技巧,以提高输出质量。
- 新模型发布:Alibaba PAI发布了Wan2.2的控制和修复模型,为视频生成任务提供了更多工具支持。
- 性能改进:通过结合Wan 2.2和2.1的LoRA,用户实现了更快的生成速度和更好的运动效果。
总结
OpenAI的GPT-5发布引发了广泛争议,用户对其性能、透明度和商业化策略提出质疑。与此同时,Wan 2.2等开源模型在视频生成领域展示了技术进步和社区协作的力量。
1. OpenAI GPT-5 发布、路由策略与现状观察
- Altman AMA 发布,GPT-5 全面推出:OpenAI 宣布 GPT-5 已向所有 ChatGPT 用户和开发者开放,并通过 Introducing GPT-5 和 Reddit AMA 预告了 Sam Altman 与 GPT-5 团队的问答活动。用户反馈称,模型采用分阶段推送,部分用户甚至失去了 GPT-4o 的访问权限。
在发布初期的混乱后,Sam Altman 表示,自动切换的失误让 GPT-5 显得“更笨”,但问题已修复,同时 Plus 用户的速率限制翻倍(详见他的 X 推文)。目前,不同地区和平台的启用仍在逐步推进中。
路由规则:OpenAI 的智能调度策略:社区分析指出,批评者忽略了 GPT-5 的真正亮点——一个持续训练、实时调度的 路由系统,它正在主导智能领域的前沿。根据 swyx 的推文(OpenAI dominance and routing)和 Latent Space 的笔记,该系统在处理复杂视觉输入时会增加 2–3 秒 的延迟。
- Latent Space 还提到,GPT‑5‑Mini 在视觉语言模型(VLM)中异常便宜,而路由技术(而非单纯的单模型扩展)才是真正的进步,这表明通过多模型工程实现的增量收益比暴力扩展 Transformer 更有效。
速率限制、幻觉问题与代码限制引发争议:工程师们报告称,GPT-5 的访问限制非常严格(部分用户仅限 10 条消息/5 小时),且在某些情况下 ChatGPT‑5 会拒绝超过 700 行 的 Python 代码输入,导致许多用户呼吁在特定工作流中回退到 GPT-4o。
- 另一些人则称赞了其更严格的指令跟随能力,但也指出了幻觉问题,并在关于可靠性与安全性权衡的讨论中引用了一句名言:“幻觉是功能,而非缺陷。”
2. 新代理与开发工具
- Cursor CLI 终端工具登场:Cursor 发布了一款早期测试版 CLI,开发者可以通过它访问所有模型,并在终端和编辑器之间无缝切换。详情见其 Cursor CLI 博客,外界对其可能成为 Claude Code 的竞争对手充满期待。
团队讨论了 PR 创建的细节和后台工作流程,而终端优先的设计则解锁了批量提交消息和全仓库编辑等自动化功能。
LlamaIndex 推出 Day-0 GPT-5 支持与 Agent Maze:LlamaIndex 宣布通过 pip install -U llama-index-llms-openai
提供 GPT-5 的 Day-0 支持,并推出了 Agent Maze 挑战赛(Agent Maze 链接)。此外,他们还计划于 8 月 14 日举办一场关于 Zoom 语音实时代理的研讨会,基于 RTMS 技术(研讨会链接)。
- 工程师还提到,新 SDK 中通过 OpenaiResolve 修复了一个工具相关的 bug,具体修复内容可参考 GitHub 提交记录。
Axolotl 引入 N-D 并行技术:Axolotl 推出了 N-D 并行 技术,用于在复杂模型和大规模数据集上实现多维度扩展,详情见 Hugging Face 博客。
- 该方法通过组合数据和模型并行轴,提高了硬件利用率,提供了比传统 DP/TP 组合更灵活的切片方式。
3. 开源训练与微调的最新动态
- Unsloth 免费提供 GPT-OSS 微调服务:Unsloth 发布了一个免费的 gpt-oss 微调 Colab 笔记本(公告),并记录了 Unsloth 对 gpt-oss 的修复(指南),指出 20B 模型可在 14GB VRAM 上训练,而 120B 模型仅需 65GB。
工程师们分享了关于数据集质量的讨论——“垃圾进,垃圾出”——以及在全层微调过程中稳定格式的经验,部分成功案例使用了类似 Reasoning: none 的系统提示词来优化 GPT-OSS。
GLM 4.5 Air 通过 CPU 卸载仍保持高效:一位实践者使用 3.5 bpw 量化、28GB VRAM 和 CPU 卸载(设备:4060Ti + 3060 GPU,5950x CPU,3600MHz DDR4)运行 GLM 4.5 Air,实现了约 14–16 TPS 的性能。
- 他们提到了一种基于 imatrix 的自定义张量量化方法,表明在 VRAM 紧张时,预算硬件也能有效支持大模型。
机制忠实性与评估漏洞:研究人员分享了一篇关于机制追踪的 Transformer Circuits 文章,《机制忠实性(玩具模型)》,同时报告了 LM Evaluation Harness 中的一个 exact_match 错误(问题 #3210)。
- 社区强调了稳健的评估工具的重要性,因为工具中的可靠性问题可能掩盖真实的进展或退步。
4. 多模态、视频与长上下文技术新进展
- Gemini生成搞笑但不断进步的视频:用户测试了Gemini Pro的视频生成功能,并分享了一段Gemini生成的视频片段,指出面部表现不一致的问题;而Perplexity Pro目前每月仅限生成3个视频。
尽管存在瑕疵,开发者们看到了快速迭代的潜力,并呼吁提供更清晰的配额说明以及提升时间一致性和身份一致性的路线图。
Qwen宣称支持百万级上下文:阿里巴巴的Qwen宣布支持100万token的上下文窗口,引发了关于超过8万token后实用性的讨论,相关示例可在X上查看。
- 工程师们讨论了检索和路由策略,以充分利用超长上下文,同时避免模型被无关文本淹没。
Google的Genie 3为下一代交互与模拟铺路:社区成员将Google的Genie 3研究页面称为*“疯狂酷炫”*,认为其为下一代生成式交互与模拟奠定了基础,链接见Genie 3。
- 一些人预计Gemini 3.0将挑战GPT-5,但也有人提醒,.0版本在后续优化前可能表现平平。
5. GPU/系统洞察与编译器
- CuTe布局代数迎来现实检验:开发者发现CuTe布局代数文档中存在一处缺陷,并推荐了Jay Shah的笔记《A Note on Algebra of CuTe Layouts》,该笔记澄清了诸如可除性和不相交图像区间等条件。
这一修正使得A ∘ B
等于双模式组合时更加严格,从而改进了在CUTLASS/CuTe内核中组合布局的心智模型。
高效合并:朴素矩阵乘法的意外发现:一个朴素的矩阵乘法实验显示,方法1(非连续的每线程访问但在线程间连续)比方法2(每线程连续访问)运行速度快约50%,因为硬件能够高效合并跨线程的访问。
- 关键点:在为带宽受限的内核设计内存布局时,不仅要考虑每线程的连续性,还需关注线程束范围内的访问模式。
MaxCompiler悄然迈向大模型:一个社区项目通过MaxCompiler扩展了torch.compile(),使其能够运行简单模型——详见max-torch-backend——其长期目标是为大模型提供编译支持。
- 早期工作将融合和优化任务交给MAX,贡献者们通过交换笔记和分享代码片段来加速操作覆盖率和图保真度。