GPT-5.5 Instant 升级为 ChatGPT 默认模型,多位博主讨论实际体验
多位博主提到,OpenAI 将 ChatGPT 默认模型升级为 GPT-5.5 Instant,全面替换上一代 GPT-5.3 Instant,全量推送。升级后在医疗、法律、金融等高风险领域幻觉率显著降低,回答更紧凑简洁,并开始主动调用用户历史聊天记录做个性化推荐。
Sam Altman(@sama)发帖称"ChatGPT feels very switched on now"和"the new instant model in chatgpt is so good damn",并推荐之前只用思考模型的用户试试新版本;后续还提到速度、智力、人格和记忆/个性化几个方向的改进叠加在一起,感觉效果超过各部分之和。@dotey 引用 @ChatGPTapp 的公告详细整理了四个维度的变化:幻觉率在高风险领域降低 52.5%、回答更短废话更少、主动使用 Gmail 和历史记录等外部上下文、以及"记忆来源"(memory sources)功能支持可视化查看引用来源并手动删除。@op7418 也发推梳理了 GPT-5.5 Instant 的主要升级点,并注明 ChatGPT 免费用户也能使用,API 别名为 chat-latest。
来源:
- @sama: https://x.com/sama/status/2051829422265979047 | https://x.com/sama/status/2051758152224506203 | https://x.com/sama/status/2051758445402223051
- @dotey: https://x.com/dotey/status/2051720198403596715
- @op7418: https://x.com/op7418/status/2051845335501455605
OpenAI 推出 Migrate to Codex 功能,支持一键迁移其他编程 Agent 配置
有博主提到,OpenAI 推出了 Migrate to Codex 功能,允许用户将 Claude Code、Cursor 等其他编程工具的配置一键导入 Codex,包括编程 Agent 的配置、规则、技能、MCP、hooks、subagents 以及最近 30 天的所有会话等。
该功能会扫描用户级和项目级配置,自动将 instruction files 映射为 AGENTS.md、settings.json 映射为 config.toml,MCP、hooks、skills、subagents 均有对应入口;无法自动迁移的部分,Codex 会主动开启新线程继续协助处理。@xiaohu 整理了操作步骤:打开 Codex App 的 Settings → General 页面找到 Import other agent setup → 选择要带入的项目 → 完成后可点击 View imported files 检查结果。
来源:
- @xiaohu: https://x.com/xiaohu/status/2051858358567833926 | https://x.com/xiaohu/status/2051858361466155422
Runway 推出 Characters 功能:一张图生成可实时对话的视频角色
有博主提到,Runway 推出了 Runway Characters 产品,支持用户上传一张参考图生成可以实时和用户对话的视频角色。该角色能看摄像头和屏幕共享,支持自定义声音和开场白,可以接入文本或 Markdown 知识库按资料回答,也能调用工具(如高亮网页按钮、查订单库存等),并通过 API、React SDK 或网页 Widget 接入第三方产品。
多位博主认为这与传统"数字人"不同:用户不是在等一段预生成视频,而是在和屏幕里的角色实时互动,角色要能听懂用户、看见用户正在查看的内容、调用资料回答,并能在产品中执行操作。
来源:
Google 为 Gemma 4 发布 MTP drafter,推理速度最高提升 3 倍
多位博主提到,Google 为开源模型 Gemma 4 发布了 MTP drafter(多 token 预测草稿模型),使用 speculative decoding 推测解码机制,让小模型先批量"猜"出接下来多个 token,再由大模型一次性并行验证,验证通过的部分一口气全部输出。Apple Silicon 跑 26B MoE 模型批量大小 4-8 时可获得约 2.2 倍提速,内存峰值仅 4.3GB;最终输出与大模型逐字一致,无质量损失。
@dotey 分析了技术原理:LLM 推理的瓶颈往往不在算力而在内存带宽,处理器大部分时间在搬运参数而非计算,推测解码把闲置算力利用起来相当于把流水线拉满。@LufzzLiz 指出这套机制对本地跑模型和多步规划等低延迟场景特别有价值,@dotey 还引用 @googlegemma 的图解文章做了进一步说明。drafter 沿用 Apache 2.0 协议,权重已上传 Hugging Face 和 Kaggle,transformers、MLX、vLLM、SGLang、Ollama 均已支持。
来源:
- @dotey: https://x.com/dotey/status/2051717367164518467 | https://x.com/dotey/status/2051718289290625266
- @LufzzLiz: https://x.com/LufzzLiz/status/2051815669591945518 | https://x.com/LufzzLiz/status/2051824495154078122
明略科技开源 Cider 和 Mano-P:让 Mac 成为本地 AI 工作站
有博主提到,明略科技(Mininglamp-AI)开源了两个项目 Cider 和 Mano-P,分别解决"Mac 本地跑 AI 怎么更快"和"AI 怎么真正操作电脑"两个问题。
Cider 将 M5 芯片的 INT8 TensorOps 更充分用起来,让 LLM/VLM 推理更快、更省内存;Mano-P 是一个纯视觉 GUI-VLA Agent,面向 Mac mini/MacBook 本地推理,能操作桌面软件、网页界面和复杂图形化工作流,支持跨系统数据整合和长任务规划,技术路径是纯视觉操作截图数据可以不出设备。Cider 解决的是端侧推理加速,Mano-P 解决的是 AI 怎么像人一样看屏幕、操作电脑,两者合起来是一套私有 AI 的本地基础设施。@xiaohu 还补充了在 M4 芯片加 32GB 内存的 Mac mini 上实测:4B 量化模型在 Apple M4 Pro 上达到 476 tokens/s 预填充、76 tokens/s 解码,峰值内存仅 4.3GB,相比标准 PyTorch CPU 推理端侧提速 60 倍以上。
来源:
- @xiaohu: https://x.com/xiaohu/status/2051975604355096926 | https://x.com/xiaohu/status/2051975624362016979 | https://x.com/xiaohu/status/2051975627386044580
加密货币交易所 Coinbase 宣布裁员约 14%,AI 提效成理由之一
有博主提到,加密货币交易所 Coinbase 宣布裁员约 14%(约 700 名员工),CEO Brian Armstrong 给出两个理由:加密货币市场进入下行周期,以及 AI 正在改变公司运作方式。
@dotey 引用 Brian Armstrong 内部信指出:AI 让工程师几天就能交付过去需要团队几周完成的活,非技术团队现在也开始写生产代码;去年 10 月公司日常代码里有 40% 由 AI 生成,目标是将比例推到 50% 以上。伴随裁员的是组织重构:CEO 和 COO 之下管理层级压到最多 5 层,每个管理者可能要带 15 个以上直接下属;所有管理者必须同时是一线贡献者,不能只做纯管理;最激进的"AI 原生小组"甚至会出现单人团队——一个人承担工程师、设计师和产品经理角色,调度大量 AI agent 完成工作。补偿方面,美国员工至少拿到 16 周基础工资加每工作一年加 2 周,外加 6 个月医保延续。@dotey 还补充了 Mizuho 证券分析师的解读:加密寒冬可能才是大部分裁员的真正原因,AI 是一个方便的借口。同日 @sama 发推提到"5.5 in codex is so good for non-coding tasks",暗示 AI 对非编码工作的渗透也在加速。
来源:
- @dotey: https://x.com/dotey/status/2051803325507494166
- @sama: https://x.com/sama/status/2051783339502375418
Petdex:为 Codex 用户提供第三方终端小宠物的开源项目
多位博主提到,开源项目 Petdex 能为 Codex 用户更换"终端小宠物",是一个 Codex Pets 宠物商店,支持预览、下载和提交各种可以在 Codex 里使用的动态小宠物。
用法简单,选择喜欢的宠物后运行 `npx petdex install <宠物名>` 即可安装,再通过 Codex 的 Settings → Appearance → Pets 选择宠物,或用 /pet 命令唤出/收起宠物。@xiaohu 指出嫌弃 Codex 内置宠物太丑的用户终于有了解决方案,并整理了 GitHub 地址和多个可选宠物种类。
来源:
- @xiaohu: https://x.com/xiaohu/status/2051728763637915 | https://x.com/xiaohu/status/2052021732379402367 | https://x.com/xiaohu/status/2052021734656851974
CodexBar 0.24 和 OpenClaw 2026.5.5 同时更新
@steipete 发推提到,CodexBar 0.24 正式发布,新增 Windsurf、Codebuff 和 DeepSeek provider 支持,引入 Copilot 多账号切换和可选本地存储拆分功能,修复了 hung Codex RPC 和电池耗电问题。@openclaw 官方账号同天发布 OpenClaw 2026.5.5 版本,修复了 Feishu、LINE、Telegram、Discord、Matrix、Slack、WhatsApp 等多个平台的消息路由问题,改进了 DM 配置验证、进度草稿清理和重连误报处理;Gateway 诊断也得到优化,supervisor 重启握手显示更清晰,token 影子警告更安静精准,插件更新不再丢失 SDK 链接。@vista8 当天也发帖推荐了洛小山的 1.6 万字长文介绍做"活人感 AI 助理"的经验,指出这块做得好的人大多是游戏从业者。
来源:
- @steipete: https://x.com/steipete/status/2051882417292525950 | https://x.com/steipete/status/2051905175355351440
- @openclaw: https://x.com/openclaw/status/2051952017900265634 | https://x.com/openclaw/status/2051952019498291502 | https://x.com/openclaw/status/2051952022455214206
- @openclaw: https://x.com/openclaw/status/2051952024267223426
- @vista8: https://x.com/vista8/status/2052027106410811473
抓取统计(2026-05-06)
- 扫描时间线条数:240
- 命中的博主数:27
- 命中的推文总数:132
- 加权推文分:110.1
- 原创推文数:78
- RT 推文数:23
- 抓取尝试次数:1
- 边界覆盖状态:tail_confidently_crossed_target_boundary(完整覆盖)