
欢迎收看最新一期的 Hunt Good 周报!
在本期内容你会看到:
7 条新鲜资讯
4 个有用工具
1 个有趣案例
3 个鲜明观点
Hunt for News|先进头条OpenAI 模型路由机制引发用户争议
近日,知名 X 博主 Tibor Blaho 发现OpenAI 正在未经用户同意的情况下,自动将 ChatGPT 用户的请求分流至两款未公开的「秘密模型」。
据 Blaho 透露,这两款模型分别为「gpt-5-chat-safety」和「gpt-5-a-t-mini」。前者是专门处理敏感内容的新型模型,后者则是一款敏感度极高的「违规」检测推理模型,仅需输入「违规」一词即可触发响应。

为了展示这一新功能,扎克伯格分享了一段 AI 制作的视频片段,标题为「爸爸试图计算 30 美元午餐的小费」,视频中一位酷似扎克伯格的父亲角色说道:「天哪… 我觉得可能至少要 6000 亿美元。」
然而,扎克伯格的宣传视频却引来了网友的嘲讽,有不少网友在其视频下方将这些由 AI 生成的视频称之为「AI 垃圾(AI slop)」。
值得注意的是,虽然 Meta 拥有自己的 AI 模型 Llama,但在 Vibes 项目中,该公司选择使用来自 AI 实验室 Midjourney 和 Black Forest 的视频生成模型。
Hunt for Tools|先进工具OpenAI 前 CTO 创业第二个成果公布9 月 27 日,由多位 OpenAI 前高管创立的 Thinking Machines Lab(TML),正式发布了其第二篇研究论文《Modular Manifolds》,旨在从根源上让大模型训练过程变得稳定、高效。
简单来说,这项研究的核心思想是给神经网络的权重参数戴上一个几何「紧箍咒」。
传统方法往往是在模型建好后,再套用一个优化器来「管教」它。而「模块化流形」框架则更进一步,它将神经网络的每一层都视为一个有独立规则的「几何空间」(即流形),先在内部约束好参数,然后再将这些空间「拼接」起来,用一个全局的「限速器」统一协调整个网络的更新步伐。
这种「模型与优化器一体化设计」的思路,避免了网络内部参数数值的失控。根据论文中进行的小规模实验,该方法在稳定性和准确率上已展现出潜力。
该成果作者为 TML 的机器学习研究员 Jeremy Bernstein,并在 MIT 从事博士后研究工作。
本月,TML 在成立半年后,发布了其首篇重磅研究论文《Defeating Nondeterminism in LLM Inference》(克服 LLM 推理中的不确定性)。
值得一提的是,此前 TML 在「0 产品 0 用户」的情况下,估值曾狂飙至 120 亿美元(折合人民币 850 亿元)。
https://thinkingmachines.ai/blog/modular-manifolds/
DeepSeek 模型再更新,真终「极」版9 月 22 日,DeepSeek 宣布,deepseek-chat 和 deepseek-reasoner 已全面升级为 DeepSeek-V3.1-Terminus。
其中,deepseek-chat 对应非思考模式,deepseek-reasoner 对应思考模式。据介绍,本次更新在延续模型既有能力的同时,针对用户反馈进行了优化。
语言一致性方面,中英文混杂与偶发异常字符情况得到缓解;Agent 能力方面,Code Agent 与 Search Agent 的表现进一步提升。值得一提的是,DeepSeek V3.1 模型此前在多个平台被开发者集中反馈出现「偶发极等」异常 —— 即在正常代码或文本输出中突然反复插入汉字「极」、英文「extreme」或繁体「極」等 token。虽然 Bug 的概率约千分之一,但足以导致编译失败或内容不可用。此次版本升级,应当也包含了对该问题的针对性修复。新模型现已开源:
Hugging Face:https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Terminus
ModelScope:https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.1-Terminus
ChatGPT 推出主动资讯助理「Pulse」9 月 26 日,OpenAI 宣布推出全新功能「ChatGPT Pulse」,目前已率先向移动端 Pro 用户开放预览。
官方介绍称,「ChatGPT Pulse」能够基于用户的聊天记录、反馈以及已连接的应用(如 Gmail、Google 日历),在每天早晨自动生成一组个性化的研究更新。这些内容以卡片形式呈现,用户可以快速浏览或展开查看详情。
与传统 AI 的「提问—回答」模式不同,「ChatGPT Pulse」强调主动性。系统会在夜间进行异步研究,结合用户的兴趣和历史反馈,次日推送更具针对性的建议,例如「健康晚餐食谱」「三项全能训练计划」或「会议议程草案」。

值得注意的是,「ChatGPT Pulse」的更新仅在当天有效,若用户未保存或展开查看,信息不会长期保留。官方强调,该功能的目标是「帮助用户快速获取关键信息,而不是让人无休止地刷屏」。
目前,「ChatGPT Pulse」仍处于预览阶段,未来将逐步扩展至更多用户,并计划支持更多第三方应用接入。
相关阅读:刚刚,ChatGPT 又更新了,奥特曼:这是我最喜欢的功能
Google DeepMind 发布新 AI 模型,机器人可搜索网络协助完成复杂任务9 月 26 日,Google DeepMind 宣布推出升级版 AI 模型,能够帮助机器人能够完成更复杂的任务。
据悉,得益于由新发布的 Gemini Robotics 1.5 以及具身推理模型 Gemini Robotics-ER 1.5,Deepmind 新推出的 AI 模型能够协同工作,让机器人在物理世界中采取行动之前能够「提前思考多个步骤」。
报道称,机器人将能够完成更复杂的多步骤操作,比如按深浅颜色分类洗衣物、根据伦敦当前天气情况打包行李箱,以及帮助人们根据特定地区要求进行垃圾、堆肥和可回收物品的分类。
DeepMind 机器人部门负责人卡罗琳娜·帕拉达表示:「此前的模型能够很好地完成单一指令任务,而且具有很强的通用性。通过这次更新,我们从执行单一指令转向对物理任务的真正理解和问题解决。」
为了实现这一目标,机器人可以使用 Gemini Robotics-ER 1.5 模型来理解周围环境,并利用 Google 搜索等数字工具获取更多信息,随后将这些发现转化为自然语言指令,传递给 Gemini Robotics 1.5,让机器人能够利用该模型的视觉和语言理解能力逐步执行任务。
此外,DeepMind 还宣布 Gemini Robotics 1.5 能够帮助机器人相互「学习」,即使它们具有不同的配置。目前,DeepMind 正在通过 Google AI Studio 中的 Gemini API 向开发人员推出 Gemini Robotics-ER 1.5,而 Gemini Robotics 1.5 目前仅向部分合作伙伴开放使用。
https://www.theverge.com/news/785193/google-deepmind-gemini-ai-robotics-web-search
Hunt for Fun | 先玩打造个性化「安卓人」,Google 推出 Androidify 应用Google 于日前正式上线全新应用 Androidify,用户可通过上传自拍或输入提示词,借助 AI 技术生成专属的 Android 机器人形象。
该应用现已在网页端及 Google Play 商店同步开放下载。
据介绍,Androidify 集成了 Gemini 与 Firebase AI Logic SDK,支持图像验证、自动生成描述以及个性化机器人生成等功能。
应用会先利用 Gemini 2.5 Flash 对用户上传的照片进行检测,确保画面清晰且符合安全标准,随后生成详细描述,并调用 Imagen 3 模型生成最终的机器人形象。
值得一提的是,最新版本还新增了「背景氛围生成」与「贴纸模式」。
前者可通过 Gemini 模型为机器人添加场景背景,后者则利用 ML Kit 分割技术去除背景,生成可在聊天应用中使用的 PNG 贴纸。
Google 表示,Androidify 的目标是让用户在轻松娱乐的同时,体验到 AI 与 Android 技术结合所带来的创造力与个性化。
Hunt for Insight|先知OpenAI 首席科学家:氛围编码之后或许就是「氛围研究」在 a16z 最新举行的一场访谈中,OpenAI 首席科学家 Jakub Pachocki 和首席研究官 Mark Chen 深度披露了一些在 AI 发展路径上的重要思考和未来规划。
针对当前评估指标趋于饱和的问题,Jakub Pachocki 坦承,过去几年一直使用的评估体系确实已经非常接近饱和。因此,未来 OpenAI 将重点关注模型是否能够发现新事物,并在具有经济相关性的领域取得实际进展。
Jakub 透露了 OpenAI 的一个宏大目标:培养自动化研究员,让其能够自动发现新想法。
他提到了一个有趣的衡量标准,即观察模型实际进行推理和取得进展的时间跨度。目前模型的推理水平大约能够维持 1 到 5 小时,接下来 OpenAI 将专注于延长这个时间跨度,无论是在长期规划能力还是保持记忆方面。
在 AI 编程方面,Mark Chen 将编程模型的进步与围棋选手李世石面对 AlphaGo 的经历相比,认为从解决八年级数学问题到一年后在编码竞赛中达到专业水平,这种进展是「疯狂的」。
他观察到,这种进步已经改变了编码的默认方式。现在的年轻人认为默认的编码方式是「氛围编码」,而从头开始编写所有代码反而成为奇怪的概念。他预测,氛围编码之后或许就是「氛围研究」。
在人才招聘方面,Jakub Pachocki 认为坚持不懈是关键特质。研究的本质是探索未知,很多尝试都会失败,因此必须做好失败和从失败中学习的准备。Mark Chen 补充说,研究没有捷径,需要经验来学会如何选择合适的问题。
https://www.youtube.com/watch?v=KSgPNVmZ8jQ
图灵奖得主:大语言模型是死胡同2024 年图灵奖得主、被誉为「强化学习之父」理查德·萨顿在最新访谈中表示,大语言模型无法实现真正的智能,并将被新的架构所取代。
萨顿的核心观点是,大语言模型本质上只是在模仿人类的行为,而非真正理解世界。
在萨顿看来,真正的智能应该来自与环境的直接交互和经验学习,就像动物在自然界中的学习方式一样。他强调,动物从不接受「监督学习」,它们通过尝试行动、观察结果来学习,这是自然界中普遍存在的学习机制。
当主持人帕特尔提到大语言模型似乎已经构建了世界模型时,萨顿反驳道:「模仿说话的人并不等于构建世界模型。真正的世界模型应该能让你预测会发生什么,而不是预测人会说什么。」
萨顿认为大语言模型面临的最大问题是缺乏明确的目标。他引用约翰·麦卡锡的定义说:「智能是实现目标的计算能力。」没有目标,就无法定义什么是正确的行为,也就无法实现真正的学习。
他进一步解释:「在强化学习中,存在正确的行为,因为正确的行为就是能获得奖励的行为。我们对什么是正确行为有明确定义,所以可以检验和学习。」而大语言模型缺乏这样的评判标准,无法在实际交互中获得反馈并改进。
访谈中,萨顿还指出了当前深度学习方法在泛化能力上的根本缺陷。他认为,虽然大语言模型在某些任务上表现出色,但这种成功往往是因为只有一种解决方案,而非真正的泛化能力。
「梯度下降会让系统找到解决已见问题的方案,但如果有多种解决方式,其中一些泛化能力强,一些泛化能力弱,算法本身并不会促使系统选择泛化能力强的方案。」萨顿表示,这也就解释了为什么深度学习系统容易出现灾难性遗忘等问题。
https://www.dwarkesh.com/p/richard-sutton
︎ 量子计算之父:破解量子引力理论或成 AGI 评判新标准9 月 25 日,在德国柏林阿克塞尔·施普林格公司总部举办的一场对话活动中,OpenAI CEO Sam Altman 与英国著名物理学家、「量子计算之父」大卫·多伊奇就 AGI 评判标准展开深入讨论,并达成共识。
在多伊奇看来,大型语言模型能够持续对话,主要依赖其接受的海量知识训练,而真正的智能应该体现在创造知识的能力上——即发现问题、发明解决方案、进行测试并不断改进的能力。

为了论证这一观点,多伊奇以爱因斯坦的相对论为例:「有人质疑爱因斯坦是否真正创造了相对论,还是仅仅将现有思想机械组合。我们确信他创造了相对论,因为我们了解他的研究历程、要解决的问题及其动机。」
不过,他也坦率承认,他此前认为计算机无法在不具备 AGI 的情况下进行开放式对话,但 ChatGPT 的表现颠覆了他的认知。他表示:「ChatGPT 虽非 AGI,但确实具备对话能力。」
针对多伊奇的上述观点,奥特曼提出了一个假设性问题:如果 GPT-8 能够解决量子引力问题并详述其研究故事,包括问题选择和研究动机,「这是否足以让你信服?」
多伊奇明确回应:「我认为会的。」奥特曼闻言露出微笑,表示:「我同意将此作为测试标准。」
https://www.businessinsider.com/sam-altman-predicts-ai-agi-surpass-human-intelligence-2030-2025-9
彩蛋时间
作者:@azed_ai
提示词:A low-poly 3D render of a [subject], built from clean triangular facets with flat [color1] and [color2] surfaces. The environment is a stylized digital desert with minimal geometry and ambient occlusion.
链接:https://x.com/azed_ai/status/1971892865581350967
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。
爱范儿|原文链接· ·新浪微博
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237