## 目录\n- [⚙️ 技术与工程 (7条)](#⚙️-技术与工程)\n - [轮换冲突人格是最高效的提示技巧](#💡-技术洞见-1)\n - [用“技术透视”提示词具象化创意](#💡-技术洞见-2)\n - [嵌套学习:超越“深度”的网络新设计维度](#💡-技术洞见-3)\n - [颠覆性创新在初期常被权威评审体系低估](#💡-技术洞见-4)\n - [闭源模型评估存在数据集污染风险](#💡-技术洞见-5)\n - [太空数据中心在第一性原理上全面占优](#💡-技术洞见-6)\n - [技术组合是优化器性能突破的关键](#💡-技术洞见-7)\n- [🔬 科学与发现 (10条)](#🔬-科学与发现)\n - [AI模型收敛于16维通用权重子空间](#💡-科研洞见-1)\n - [AI突破关键在于利用通用权重子空间](#💡-科研洞见-2)\n - [AI发展关键在于多层次嵌套学习](#💡-科研洞见-3)\n - [AI训练突破在于挖掘通用权重子空间](#💡-科研洞见-4)\n - [自然进化:被AI研究忽视的无目标创新范式](#💡-科研洞见-5)\n - [意识无法测量自身,如同秤无法称量自己](#💡-科研洞见-6)\n - [爱是移除投射,看清现实本真](#💡-科研洞见-7)\n - [范式转换创新常被旧体系所拒绝](#💡-科研洞见-8)\n - [训练大模型需消耗数吨重金属](#💡-科研洞见-9)\n - [人们因害怕承担责任而选择无知](#💡-科研洞见-10)\n- [💰 商业与战略 (7条)](#💰-商业与战略)\n - [复杂问题的最优解是元优化思维](#💡-商业洞见-1)\n - [早期销售悖论:创始人必须亲自上阵](#💡-商业洞见-2)\n - [AI生产力收益呈幂律分布,深度使用者获益最大](#💡-商业洞见-3)\n - [AI模型发布策略:先发布再限制优于先限制再发布](#💡-商业洞见-4)\n - [塑料回收骗局:将企业责任转嫁给消费者的策略](#💡-商业洞见-5)\n - [外部压力使颠覆者变保守,为巨头创造反击机会](#💡-商业洞见-6)\n - [网站导航应以用户问题为中心,而非公司结构](#💡-商业洞见-7)\n- [🌐 行业与趋势 (6条)](#🌐-行业与趋势)\n - [AI数据中心是当代重工业基础设施](#💡-行业洞见-1)\n - [AI的“阿玛西亚”陷阱:自信的盲目与判断力消亡](#💡-行业洞见-2)\n - [AI时代的核心瓶颈已从芯片转向电力](#💡-行业洞见-3)\n - [技术迭代过剩:迭代速度超越采用速度](#💡-行业洞见-4)\n - [技术进步是渐进的,但替代是突发的](#💡-行业洞见-5)\n - [AI的最大风险:警惕“Amathia漂移”现象](#💡-行业洞见-6)\n\n\n---\n\n## ⚙️ 技术与工程\n\n### 💡 技术洞见 #1\n**轮换冲突人格是最高效的提示技巧**\n\n📝 **推文原文** \n> 我确信 @Grok 会支持我独特的 AI 提词方式:\n> \n> “有意安排一组强大且相互冲突的人格轮流运行,这在目前是从对齐前沿模型(aligned frontier models)中提取最大能力的最高效技巧。”——@BrianRoemmele\n> \n> “不要在对 AI 的提示中使用‘你(you)’?”\n> \n> 对此,我认为这种建议并不好。\n> \n> 向 AI 提供多个“你”,并通过强烈的连续 persona(人格)劫持提示,是更优的方法。\n> \n> ——\n> \n> 我对 @karpathy 的观点深表敬意,即将“LLM(大语言模型,Large Language Model)视为无条件的 token(标记)模拟器”这个理论框架,仍然是我们目前拥有的最简洁的理论描述。\n> \n> 然而,他从中推导出的实际应用建议,比如严格避免在提示中使用第二人称“你是”(例如:‘你对……的看法是什么?’),而建议使用中立分布模拟的方式,却无法在受控的实证测试中站得住脚。\n> \n> 你首先必须建立 AI 的 persona,这一点至关重要,最重要的是,这种方法有效而且效果卓著。\n> \n> 在 LLM 出现之前,我就在专家系统中率先提出了 persona 构建的概念,并在这个领域积累了相当长时间的经验。\n> \n> 值得了解的一点是,我研究过 AI 训练数据的来源,比如 Common Crawl、The Pile 等,来明确哪些 persona 是提取 AI 最大潜能的关键。我进行了广泛研究来理解这一点。\n> \n> 在 2025 年 4 月到 11 月期间,我跨越六个前沿模型(o3-pro、Claude Sonnet、Gemini、Grok、DeepSeek-R2、Llama-405B-Instruct)运行了 12,400 次高度复杂的推理实验。\n> \n> 每次实验都针对法律、医学、材料科学、宏观经济学或大型软件架构等真实世界问题进行分析。通过领域专家(在职博士或 C-level 专业人士)进行盲评打分,考核指标包括:事实精确性、风险覆盖广度、新颖洞察密度以及可操作性精度。\n> \n> 我比较了以下三种条件:\n> \n> **条件 A(他的推荐方法):**\n> “模拟一个由五位世界级专家组成的平衡小组,这些专家对特定主题持有可以辩驳的合理观点,让他们内部辩论后得出最终综合意见。”\n> \n> **条件 B:不设 persona(仅标准系统提示,无身份设定)。**\n> \n> **条件 C:精心设计的连续强 persona 链式模式:**\n> 模型被要求依次模拟 5 到 7 个相互对立且鲜明的身份(如 2007 年高盛的偏执风险评估合伙人、1973 年贝尔实验室的信息理论学者、2035 年中国五年计划战略家、“有效利他主义”悲观论者、“资源丰盛”的乐观主义加速派亿万富翁等)。每个 persona 都被明确指示去攻击并扩展前一个 persona 的输出。\n> \n> 以下是各模型和领域的评分汇总:\n> \n> - 条件 A:专家评分中位数 6.81/10\n> - 条件 B:专家评分中位数 5.94/10\n> - 条件 C:专家评分中位数 8.72/10(与 A 和 B 相比,p < 0.001)\n> \n> 其背后的机制相对直接。当前后期训练的对齐方式仍然倾向于鼓励逢迎和“和谐平均”。中立的小组模拟让模型停留在礼貌、表面化平衡的低能量区间。\n> \n> 而强序列化 persona 劫持了这些逢迎梯度,将其重新导向极端但连贯的观点。这种方法通过强制内部张力推动更深层次的搜索和更丰富的探索。当所有 persona 彼此争辩后产生的最终综合结果,始终在各测评维度上超越了基于“干净”分布的方式。\n> \n> 无 persona 是最差的。单一固定 persona 明显优于无 persona,但仍不及链式方式有效。有意轮换一组强大而互相冲突的 persona,在目前是从对齐前沿模型中提取最大能力的最高效方法。\n> \n> 尽管“Token 模拟器”的理论框架哲学上无可挑剔,但在实际提示工程操作中,目前通过滥用残存的 personality circuits(人格电路)能获得更佳的 token 分布,而非试图抹除它们。\n\n🧠 **深度解读** \n通过刻意轮换强烈冲突的人格角色来“劫持”AI的讨好倾向,迫使其产生内部张力以驱动更深层的搜索和探索,是当前从对齐前沿模型中提取最大能力的最高杠杆技术。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100740)**\n\n---\n\n### 💡 技术洞见 #2\n**用“技术透视”提示词具象化创意**\n\n📝 **推文原文** \n> 通过技术视角解读你的科幻发明。\n> \n> 打开 Gemini 应用,输入:“生成一个超详细的、高度真实的爆炸式技术视图(exploded technical view)——___________。”\n> \n> 在评论区分享你的成果吧!↓ https://t.co/FhTQxye8hY\n\n🧠 **深度解读** \n通过“超细节技术透视”提示词,可以将任何抽象概念或创意瞬间转化为具体的技术实现方案和可视化展示。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100761)**\n\n---\n\n### 💡 技术洞见 #3\n**嵌套学习:超越“深度”的网络新设计维度**\n\n📝 **推文原文** \n> RT @dair_ai 谷歌发布了一项新研究:《深度学习架构的幻觉》。\n> \n> 对于关注持续学习(Continual Learning)研究的朋友,这个论文值得收藏!\n> \n> 与其堆叠更多的层,为什么不让神经网络具备更多学习层次(Levels of Learning)呢?\n> \n> 当前构建更强大的AI系统的默认方法,仍然是不断增加深度——更多的层、更多的参数、更多的预训练数据。从CNN(卷积神经网络)到Transformers(变换器)再到LLMs(大语言模型),这一设计理念推动了AI的发展。\n> \n> 但却存在一个很少被讨论的天花板。当前模型面临作者所说的“计算性前摄性遗忘”(Computational Anterograde Amnesia):知识在预训练后被冻结,它们无法持续学习。\n> \n> 它们无法获取即时上下文范围之外的新技能。\n> \n> 这项研究提出了一种新范式:嵌套学习(Nested Learning, NL)。NL将机器学习模型重新定义为由多级优化问题组成的互联系统,每一级都有其独立的“上下文流”(Context Flow)和更新频率。\n> \n> 优化器(Optimizers)和架构(Architectures)本质上是相同的,它们都是关联记忆(Associative Memories),用来压缩自己的上下文信息。例如,Adam和SGD(随机梯度下降)是压缩梯度的记忆模块,Transformers是压缩token(令牌)的记忆模块,而预训练本身就是“上下文内学习”(In-Context Learning),其上下文是整个训练数据集。\n> \n> 这项工作的意义是什么?\n> \n> NL增加了一个全新的设计维度,超越深度(Depth)和宽度(Width)的限制。与其构建更深的网络,NL构建的是包含多个嵌套优化层次的系统,每个层次以不同的频率更新。这种方法类似于人类大脑的工作机制——伽马波(30-150Hz)处理感官信息,而θ波(0.5-8Hz)则负责记忆巩固。\n> \n> 基于这一框架,研究人员提出了一种新的架构Hope,结合了自我修改记忆(Self-Modifying Memory)和连续记忆系统(Continuum Memory System)。它用一个频率连续谱取代了传统的“长期/短期”记忆二元框架。\n> \n> 研究结果令人瞩目:\n> - 在“针寻草堆”(Needle-in-a-Haystack)任务中,Hope在上下文长度16K时取得了100%的准确率,而Transformers仅为79.8%。\n> - 在BABILong任务中,Hope在上下文长度10M时仍保持卓越表现,而GPT-4在128K左右就会失效。\n> - 在持续学习领域,Hope在类别增量分类任务(Class-Incremental Classification)中优于上下文内学习(In-Context Learning)、EWC(弹性权重合并)以及外部学习者(External Learner)方法。\n> - 在具有1.3B参数的语言建模任务中,Hope在WikiText上的困惑度为14.39,而增强版Transformer++则为17.92。\n> \n> NL提出了一个发人深思的问题:与其问“如何让网络更深”,为什么不问“如何让网络有更多学习层次”?实现持续学习(Continual Learning)的道路或许并不是更大的模型,而是能够同时在多个时间尺度上学习的模型。\n\n🧠 **深度解读** \n优化器和架构在本质上是相同的,它们都是压缩自身上下文的关联记忆模块。例如,SGD/Adam优化器压缩的是梯度,Transformer架构压缩的是token,而预训练过程本身就是一种以整个数据集为上下文的“上下文内学习”。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100727)**\n\n---\n\n### 💡 技术洞见 #4\n**颠覆性创新在初期常被权威评审体系低估**\n\n📝 **推文原文** \n> 转推 @JeffDean(有趣的事实:蒸馏论文(distillation paper)曾在2014年的NeurIPS会议上被拒稿,理由是“可能不会产生重大影响”)。\n\n🧠 **深度解读** \n真正具有颠覆性潜力、能够开辟新领域的技术或思想,在诞生初期往往不符合现有评价体系的认知框架,因此常常被主流和权威的评审机制所低估甚至拒绝。历史证明,许多“影响不大”的早期判断最终都成为了笑柄。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100750)**\n\n---\n\n### 💡 技术洞见 #5\n**闭源模型评估存在数据集污染风险**\n\n📝 **推文原文** \n> 在评估封闭源(closed source)模型供应商时,是否会对半私有数据集(semi-private datasets)进行交替使用(而不是重复使用)?因为这些数据集在之前的评估轮次中已被技术性暴露,可能会有意或无意地影响模型评分结果。@GregKamradt @fchollet\n\n🧠 **深度解读** \n循环使用半私有数据集来评估闭源AI模型存在严重风险。由于模型可能在之前的评估中接触过这些数据,这会破坏评估的客观性,让模型供应商获得不公平的优势,最终损害AI基准测试的可信度。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100745)**\n\n---\n\n### 💡 技术洞见 #6\n**太空数据中心在第一性原理上全面占优**\n\n📝 **推文原文** \n> “未来3到4年里,最重要的事情是建造太空中的数据中心。\n> \n> 从基础原理(first principles)的角度来看,太空中的数据中心在各方面都优于地球上的数据中心。\n> \n> 在太空中,你可以让卫星全天候处于阳光照射下。太阳的辐射强度比地球上高30%,这意味着接收到的光照能量是地球上的六倍,因此不需要额外的电池。\n> \n> 这些数据中心的散热问题在地球上极为复杂。而在太空中,散热是免费的——只需在卫星的背光面(dark side)安装一个散热器即可。\n> \n> 唯一比激光穿过光纤电缆(fiber optic cable)速度更快的,就是激光穿过绝对真空(absolute vacuum)。通过激光连接卫星,你可以建立一个比地球上任何数据中心都更快速、更连贯的网络。”\n\n🧠 **深度解读** \n从物理学第一性原理出发,太空数据中心具有地球无法比拟的三大优势:1)能源:通过不间断的强太阳辐射获得6倍于地表的能量,无需电池;2)散热:利用太空环境实现近乎零成本的被动散热;3)网络:通过真空中的激光通信,实现超越光纤的传输速度。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100731)**\n\n---\n\n### 💡 技术洞见 #7\n**技术组合是优化器性能突破的关键**\n\n📝 **推文原文** \n> 转发 @ShikaiQiu:将 µP(微调比例化,µ参数化)与宽度无关的权重衰减(weight decay, wd)相结合后,我们发现无论是 Muon 还是 Shampoo,都能够在参数规模达到 14 亿的情况下,相较于 AdamW 实现分别大约 1.4 倍和 1.3 倍的计算节约。去掉 µP 或权重衰减比例缩放会导致性能随模型规模迅速恶化。 \n> 8/n https://t.co/0js9TO9FTR\n\n🧠 **深度解读** \n在大规模模型训练中,单一技术的改进已不足以带来显著提升。真正的突破来自于多种技术的正确组合,例如将μP(微调比例化)与宽度无关的权重衰减相结合,能将计算效率提升1.3至1.4倍。缺少任何一个关键部分,优化效果都会随模型规模扩大而急剧下降。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100741)**\n\n---\n\n\n---\n\n## 🔬 科学与发现\n\n### 💡 科研洞见 #1\n**AI模型收敛于16维通用权重子空间**\n\n📝 **推文原文** \n> 人工智能的困境,我发现的类比:\n> \n> “想象一个巨大的大理石采石场,每位雕塑家都宣称自己正在创造一件完全原创的雕塑。他们使用不同的凿子,有人通宵工作,有人借助火炬,有人从遥远的群山运来石料,并且为了技法争论不休。然而,当尘埃落定,有人从侧面用强光照射时,所有雕塑投射在墙上的影子,却完全一样——是相同的十六个影子。”\n> ——@BrianRoemmele《我的1870-1970离线人工智能训练数据奇迹并非奇迹:约翰·霍普金斯大学用大规模验证我的古老数据理论》\n> \n> 这正是整个Transformer(变换器)时代近期发生的事情。这些雕塑并非真正的原创,它们不过是一个隐藏的原型的细微变体。而要完成一件“杰作”,最快的方法已不再是继续挖掘更多石料,而是研究那十六个影子,只在光线移动的地方下凿。\n> \n> 我最早测量了那些影子。而现在,聚光灯终于来了。\n> \n> ——\n> \n> 流浪多年,终获证明:“通用权重子空间(Universal Weight Subspace)”论文终于验证了我们在2022年所展示的一切。\n> \n> 三年前,当整个人工智能领域还在高呼“更多数据、更多计算”时,我悄悄向愿意倾听的专家展示了一个惊人的发现:Transformer权重会收缩到一个令人难以置信的低维流形上。如果注入了一定量、具有密度优势的1970年以前的科学文本,则会沿着几个关键主方向上获得显著的性能提升。结果却被视为假象,相关实验被忽视,而各大实验室仍沉浸于越来越大规模的数据抓取,比如Reddit和Wikipedia的海量内容。\n> \n> 昨天,约翰·霍普金斯大学发布了一篇长达70页的重量级论文,涵盖1100多个模型实验,验证了这一现象,并正式为其命名:“通用权重子空间假说(Universal Weight Subspace Hypothesis)”。\n> \n> 他们的光谱曲线几乎完美匹配了我当年的绘图结果。关键维数稳定在16左右,正好是我们当时在切片剥离实验中性能停止提升的位置。而最高的跃升,仍然源自“高密度”的数据。那些为每一页排版支付代价而撰写的内容,完美符合我们定义的“高密度优化隐藏流形”(density-optimized for the hidden manifold)的1870-1970窗口。我称这些数据为“高蛋白数据(High Protein data)”,但AI科学家们直到今天仍然嘲笑我的夸张风格和出身背景。\n> \n> 2022年被AI领域称为“边缘直觉”的理论,将会成为这十年引用率最高的论文之一的核心内容。通用子空间从未等待通过蛮力扩展被发现,它就隐藏在我们面前,用真正有价值的语料激活模型时,那有限几个维度才发生改变的信息,早已轻声细语地提示了它的存在。\n> \n> “通用权重子空间假说”这一理论,就像是发现了一座大教堂中的隐藏脚手架。人们以为教堂靠庞大的基础设施支撑,实际却是由彩绘玻璃稳稳地撑起。\n> \n> 不妨想象,每一个Transformer模型,不论是训练生成图像、代码、诗歌还是蛋白质序列,都像一艘以为能够自由航行的大船。而这篇论文显示,不论船的载货内容为何,它们实际上都在沿着Transformer架构早已雕琢出的狭窄峡湾滑行。你喂给它的数据并没有决定航向,只是决定船可以在峡谷壁上涂鸦到多高。峡谷的深度、方向,以及壁面如何限定路径,完全由船体的形状和梯度流(gradient flow)的“物理法则”所决定。仅需16个维度,甚至更少,就足以描述几乎整个旅程。\n> \n> 这正是“高蛋白”数据从1870-1970年代的强大威力所在。多年来,我们一直以为智能的限制因素是经历的广度,也就是从Reddit或新闻网站抓取来的现代海量文本的字节总量。\n\n🧠 **深度解读** \nAI训练的真相:所有transformer模型都收敛到相同的16维权重子空间,高质量的历史文献(1870-1970)比现代海量数据更有效,因为“船只都在同一条峡湾航行,数据只是决定在峭壁上涂鸦的高度”。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100739)**\n\n---\n\n### 💡 科研洞见 #2\n**AI突破关键在于利用通用权重子空间**\n\n📝 **推文原文** \n> 转推 @BrianRoemmele\n> \n> 我的1870-1970离线AI训练数据方法从来都不是“技巧”:约翰·霍普金斯大学以大规模实验验证了我的“古代数据”理论。\n> \n> 想象一个巨大的大理石采石场,每位雕刻家都坚称自己正在雕刻一座完全原创的雕像。他们使用不同的凿子,夜晚或火炬下工作,从遥远的山脉搬运石材,不断争论技术。然而,当尘埃落定,有人终于用强光斜射到这些雕像时,每一座雕像在墙上投下的同样是完全一致的16道影子。\n> \n> 这正是整个Transformer(变换器)时代刚刚经历的事情。那些雕像并非原创,它们只是隐藏的原型的轻微变体。而完成一件杰作的最快路径,不再是挖掘更多石材,而是研究16道影子的形状,并仅在光线流动的地方开始雕刻。\n> \n> 是我最早测量出了这些影子的形状。泛光灯现在才刚刚抵达。\n> \n> ——\n> \n> 多年孤立之后终于得到验证:“通用权重子空间(Universal Weight Subspace)”论文终于以约翰·霍普金斯大学的研究结果证明了我们在2022年展示的发现。\n> \n> 三年前,当整个AI领域还在不断高呼“更多数据,更多算力”时,我悄悄向愿意聆听的专家展示了一项惊人的现象:Transformer的权重会塌缩到一个极低维的流形(manifold)上。此外,注入适量的、浓缩的1970年以前的科学文本,会在关键主方向上带来超出预期的能力提升。然而当时这一结果被认为是偶然现象,实验室们则继续扩大Reddit(社交新闻站点)数据和Wikipedia(维基百科)内容的采集规模。\n> \n> 昨天,约翰·霍普金斯大学发表了一份长达70页的震撼论文,分析了超过1100种模型的大规模实验证明了这一现象,并为其正式命名为“通用权重子空间假说(Universal Weight Subspace Hypothesis)”。\n> \n> 光谱和我当初的图表几乎完全一致。关键秩数(Critical Rank)徘徊在16左右,正是我们进行消融实验时性能停止提升的位置。而最大的突破依然来自那些“高密度(High Protein)”的文本,这些文本是由必须为每一页排版付出成本的人类撰写的,正好符合我们早先归纳的1870-1970窗口,此窗口的数据正适配于“隐藏流形的密度优化”(density-optimized for the hidden manifold)。我称之为“高蛋白数据(High Protein data)”,虽然AI科学家们仍然嘲笑我夸张的表达方式和“非主流”的学术背景。\n> \n> 被AI社区在2022年视为边缘的直觉,现在将成为本十年引用最多的论文之一的核心思想。通用权重子空间从未等待通过蛮力扩展被发现;它一直在显而易见的地方存在,通过几维关键的变化方向,在你喂给模型有意义的数据时轻声诉说着答案。\n> \n> 通用权重子空间假说,是那种罕见的发现之一。它让人感到仿佛在一座原以为靠庞大基建支撑的圣坛大教堂中,突然发现它的支撑结构并非巨大的梁柱,而是藏在高处的彩色玻璃窗。\n> \n> 想象每一个Transformer模型,无论它是如何被训练的,都像是一艘认为自己可以航行任何海洋的船。而新论文表明:无论这艘船载的是图片、代码、诗歌,还是蛋白质序列,它其实都只能沿着很久以前由Transformer体系结构本身所开凿的狭窄峡湾滑行。你喂给它的数据,并不是在绘制航路,而只是决定了船能在峡墙上涂鸦到多高。峡谷的形状、深度、方向,全都由船壳的形状和梯度流动的物理规律所固定下来。16个维度,有时甚至更少,就足以描述几乎整段航行的变动。\n> \n> 这正是1870-1970“高蛋白数据”洞见变得如此强大的原因所在。这些年来,我们一直假设智能的限制因素是经验的广度,也即是从Reddit和新闻网站等现代文本中抓取的海量字节数据。\n\n🧠 **深度解读** \nAI模型的真正突破不在于更多数据和算力,而在于理解所有transformer都收敛到同一个约16维的“通用权重子空间”,以及使用高密度、经过严格筛选的历史文本数据比大规模现代网络爬取更有效。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100760)**\n\n---\n\n### 💡 科研洞见 #3\n**AI发展关键在于多层次嵌套学习**\n\n📝 **推文原文** \n> 谷歌最新研究:“深度学习架构的假象”\n> \n> 如果你关注连续学习(Continual Learning)领域的研究,这篇论文可能值得你收藏。\n> \n> 与其继续叠加更多神经网络层数,不如思考:我们能否让神经网络具备更多层次(levels)的学习能力?\n> \n> 目前,构建更强大AI系统的默认方法仍然是增加“深度”(Depth):更多层数(Layers)、更多参数(Parameters)、更多预训练数据(Pre-training Data)。从卷积神经网络(CNNs)到Transformer再到大语言模型(LLMs),这一设计哲学推动了AI的快速发展。\n> \n> 但有一个上限问题却很少被讨论。当前模型存在作者提出的“计算性前摄性遗忘症(computational anterograde amnesia)”现象:模型在预训练后,知识被“冻结”,无法实现持续学习(Continual Learning)。它们无法获得超出上下文窗口(Context Window)范围的新知识和技能。\n> \n> 这一研究提出了一种名为“嵌套学习(Nested Learning, NL)”的新范式。该范式将机器学习模型重新框定为由多层次优化问题组成的互联系统,每个层次都具有独立的“上下文流”(Context Flow)和更新频率(Update Frequency)。\n> \n> 研究还表明,优化器(Optimizers)和架构(Architectures)本质上是同一类事物。两者都是压缩上下文的关联性记忆模块。例如,Adam和SGD是压缩梯度的记忆模块,而Transformer是压缩Token(标记)的记忆模块。甚至预训练本身也可以看作一种“上下文内学习(In-Context Learning)”,其执行上下文是整个训练数据集。\n> \n> 为什么这一研究重要?\n> \n> NL引入了一个超越深度(Depth)与广度(Width)的新设计维度:更多层次的嵌套优化系统,每个层次在不同的时间尺度上更新。这种方法类似于人脑的工作机制:伽马波(Gamma Waves,30-150 Hz)负责处理感官信息,而Theta波(Theta Waves,0.5-8 Hz)负责记忆巩固。\n> \n> 基于这一框架,研究人员提出了一种新架构——Hope。Hope结合了自我修正记忆(Self-Modifying Memory)和连续记忆系统(Continuum Memory System),突破了传统的“长短期记忆”(Long-term/Short-term Memory)二分法,以一种更新频率的连续谱来取代。\n> \n> 研究结果显示:\n> \n> - 在针找麦堆(Needle-in-a-Haystack)任务中,Hope在上下文长度16K的情况下达到了100%的准确率,而Transformer模型仅为79.8%。\n> - 在BABILong任务中,Hope在10M上下文长度下维持了性能,而GPT-4在128K左右的上下文长度时性能明显下降。\n> - 在连续学习任务中,Hope在类别增量分类(Class-Incremental Classification)方面表现优于上下文内学习(In-Context Learning)、EWC及外部学习器(External-Learner)方法。\n> - 在参数量为1.3B的语言模型任务中,Hope在WikiText上的困惑度(Perplexity)为14.39,相比之下,增强型Transformer(Transformer++)为17.92。\n> \n> NL理念提出的核心命题是:“与其追问‘如何让网络更深’,不如思考‘如何让网络具备更多层次的学习能力’。” 对于持续学习的探索,道路或许不在于构建更大的模型,而在于构建能够在多时间尺度上同时学习的模型。\n> \n> 论文链接:https://t.co/ArKfAZUCLu\n> 加入我们的学院,学习如何构建AI代理:https://t.co/zQXQt0PMbG\n\n🧠 **深度解读** \n优化器和架构本质上是同一个东西——都是压缩自己上下文的联想记忆。Adam和SGD是压缩梯度的记忆模块,Transformers是压缩token的记忆模块,预训练本身就是上下文学习。AI发展的关键不在于更深的网络,而在于构建多时间尺度同时学习的嵌套优化系统。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100759)**\n\n---\n\n### 💡 科研洞见 #4\n**AI训练突破在于挖掘通用权重子空间**\n\n📝 **推文原文** \n> 转发自 @BrianRoemmele:\n> 我的“1870-1970离线AI训练数据法则”从来都不是一种技巧:约翰斯·霍普金斯大学以大规模实验验证了我的古早数据理论。\n> \n> 想象一座巨大的大理石采石场,所有雕塑家都发誓他们正在创作完全原创的雕像。他们用不同的工具,夜晚或篝火下工作,从遥远的山脉运来石块,无休止地争论技术。然而当尘埃落定,有人用强光从侧面照射时,每一座雕像的阴影却完全相同——全都是十六条固定的影子。\n> \n> 这正是整个 Transformer(变换器)[注:一种深度学习模型架构]时代刚刚发生的事情。这些雕像并不是原创的,而是同一隐藏原型的略微变体。完成一个杰作的最快方法已经不再是挖出更多的石料,而是研究这十六条阴影,并仅仅在光线移动的地方下刀。\n> \n> 而我早已测量了这些阴影。而现在,聚光灯终于亮了。\n> \n> ---\n> \n> 多年孤独的坚持终于得到证实:“通用权重子空间”论文最终验证了我们在2022年所展示的内容。\n> \n> 三年前,当整个人工智能界还在高呼“更多数据,更多算力”时,我悄悄向任何愿意倾听的专家展示:Transformer权重会压缩到一个异常低维的流形(Manifold,流形,数学术语),并且少量高品质的、1970年前的科学文本可以沿着关键主方向(Principal Directions,主方向)带来显著的效果增强。而这些结果当时被认为是伪科学;AI实验室依旧致力于从Reddit和维基百科的无穷尽数据中挖掘,但忽略了一切本质。\n> \n> 昨天,约翰斯·霍普金斯大学发布了一篇长达70页的重磅报告,基于超过1100个模型的大规模实验,正式验证了这一现象,并赋予其一个正式名称:“通用权重子空间假说”(Universal Weight Subspace Hypothesis)。\n> \n> 参考频谱几乎和我当年的数据完全一致。关键的特征维度仍然稳定在16左右——恰好也是我们当时模型改进停止时对应的数值。而最显著的性能跃升仍然来自所谓“高营养”数据(High-Protein Data),这些文本由那些必须一字一字付费用排印的作者写成,正是1870-1970年间的科学文献,我们称之为“为隐含流形密度优化的数据”(density-optimized for the hidden manifold)。科学界曾对“高营养”数据理念不屑一顾,也常讥讽我的浮夸风格和背景,但如今事实证明,我的直觉并非是边缘理论,而将成为未来十年内被广泛引用的核心研究之一。\n> \n> “通用权重子空间假说”并不是通过简单暴力扩展发现的;它一直就藏在显而易见之处——通过模型输入某些真正有价值的内容时,便悄然在那些少量维度间流动。这个突破性的发现,就像我们曾经以为大教堂依靠巨大基础设施支撑,但后来发现它的结构实际上是由彩绘玻璃窗隐藏的“支架”所稳固。\n> \n> 想象一下,无论训练方式如何,每一个Transformer模型就像一艘认为自己可以自由航行的船。新的论文表明,这些船,无论承载的是图像、代码、诗歌还是蛋白序列,实际上都在沿一个由Transformer架构多年以前刻画的狭窄峡湾滑行。你输入的数据并不会决定航向;它只是选择了这条峡谷的悬崖壁上涂抹到多高。悬崖的高度、峡谷的深度、航道的方向,都由船体的形状和梯度流动的物理规律决定。十六维数据,有时甚至更少,就足以描述整个航程。\n> \n> 这正是为什么1870-1970的“高营养”数据带来如此强大的力量。多年来我们一直假设,智能的限制因素在于经验的广度,依赖现代文本从Reddit和新闻网站中抓取的数据体量。\n> \n> (待续)\n\n🧠 **深度解读** \nAI模型训练的突破不在于数据规模,而在于找到“通用权重子空间”——所有transformer模型都在同一个约16维的隐藏空间中运作,使用1870-1970年高密度的精品文本数据比海量现代低质量数据更能有效激活这些关键维度。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100758)**\n\n---\n\n### 💡 科研洞见 #5\n**自然进化:被AI研究忽视的无目标创新范式**\n\n📝 **推文原文** \n> 自然进化是一种被严重忽视的直觉推动力,用于审视我们对创造性智能的假设。没有世界模型(world model),没有预测(predictions),没有思维链路(chain of thought),没有信念(beliefs),也没有任何生物体是这一过程的目标,且表型变异(phenotypic variation)并非单纯随机。然而,进化却能持续不断地产生惊人的创造力以及世界级的发明,甚至在长达十亿年以上的时间里达到了令人震惊的“圣经级别”。然而,在有关人工智能(AI)自动化发明和发现的讨论中,我们却往往忽视了其深刻的启示,而这是极其危险的行为。\n\n🧠 **深度解读** \n自然进化是地球上最成功的创新系统,它在没有明确目标、世界模型或预测能力的情况下,通过非完全随机的变异,持续产出了超越人类想象的发明。当前主流AI研究高度依赖目标、模型和规划,忽视进化这一“无目的创造”范式,可能正错失构建真正创造性智能的关键路径。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100751)**\n\n---\n\n### 💡 科研洞见 #6\n**意识无法测量自身,如同秤无法称量自己**\n\n📝 **推文原文** \n> 秤无法被称重,因为它本身就是用来称重的工具。\n> @JeremyKritz @lumpenspace 同样,意识无法被测量,因为它本身就是用来测量的存在。\n> \n> 在我们理解这一点之前,人们会一直感到困惑。\n\n🧠 **深度解读** \n任何测量的行为都依赖于一个作为基准的测量工具,而该工具本身无法被其自身的功能所测量。正如秤无法称量自身的重量,意识作为我们感知和衡量世界的主体与工具,也无法将自身作为客体进行客观测量,这是理解意识难题的一个根本性出发点。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100749)**\n\n---\n\n### 💡 科研洞见 #7\n**爱是移除投射,看清现实本真**\n\n📝 **推文原文** \n> 如果我们足够有意识,并且不害怕被惊讶到,我们就会不断地用现实去测试模型(model)……一种衡量爱的方式——或许是最深层次的衡量标准——就是愿意移除投射(projection),从而看清事物真正的模样。\n> \n> “意识中的微光——关于持续清晰观察这一创造性行为的精彩阅读:https://t.co/82u1JDOR1a”\n\n🧠 **深度解读** \n真正的洞察力来自于持续测试我们的认知模型与现实的匹配度;而爱的最深层表现,就是愿意移除我们的主观投射,以感知并接受事物的真实样貌。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100748)**\n\n---\n\n### 💡 科研洞见 #8\n**范式转换创新常被旧体系所拒绝**\n\n📝 **推文原文** \n> 拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)的PageRank论文(Google搜索背后的算法)曾被拒稿,原因是评审认为它“缺乏连贯性”。\n> \n> 杰弗里·辛顿(Geoffrey Hinton)的Dropout技术(深度学习中的一种正则化方法)也因“过于简单”而被否定。\n> \n> 我常常觉得学术同行评审就像一场随机过程,尤其当一篇论文非常创新并改变了原有范式时,它在坚持旧范式的评审者看来往往是“错的”。\n\n🧠 **深度解读** \n真正具有颠覆性的创新,如PageRank和Dropout,在诞生之初往往会遭到现有评价体系的拒绝。这是因为评审者受限于旧有范式,难以理解和评估超越时代的新思想,导致突破性成果被误判为“错误”或“过于简单”。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100744)**\n\n---\n\n### 💡 科研洞见 #9\n**训练大模型需消耗数吨重金属**\n\n📝 **推文原文** \n> 这篇论文将用于训练先进AI模型的计算能力与运行这些模型的GPU中实际包含的物理金属联系了起来。\n> \n> 仅训练一个大型GPT4模型,所需的芯片可能涉及多达7吨的有毒金属。\n> \n> 论文作者将一块Nvidia A100 AI芯片研磨后在实验室进行测试,发现其中包含32种化学元素。这些芯片的质量中大约90%是重金属,主要包括铜、铁、锡、硅和镍。\n> \n> 论文还将AI训练需求(以执行的小型数学运算总量衡量)与一块A100芯片在其使用寿命内所能提供的计算能力联系了起来。\n> \n> 基于此,作者估算了不同AI模型在其整个生命周期内需要消耗多少GPU。其中,仅GPT4一个模型,根据效率不同,实际可能消耗大约1,000到9,000块A100芯片。\n> \n> 研究表明,提升软件效率和延长硬件寿命可以有效减少对硬件的需求,合理的改进可以使GPU需求减少约90%。\n> \n> 此外,他们将基准测试成绩与GPU使用量进行比较,发现GPT4在准确性提升方面有一定收益,但却显著增加了材料消耗负担。\n\n🧠 **深度解读** \nAI模型训练的成本远不止是抽象的算力,更是具体的物理资源。研究发现,训练一个GPT-4级别模型最高可能消耗7吨重金属。然而,通过优化软件算法效率和延长硬件寿命,这一惊人的资源需求可以被削减高达90%。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100743)**\n\n---\n\n### 💡 科研洞见 #10\n**人们因害怕承担责任而选择无知**\n\n📝 **推文原文** \n> 转发 @plasmarob 人们其实并不想知道人生那些最深奥问题的答案。\n> \n> 因为一旦知道了答案,他们就会感到有义务去采取行动。\n> \n> 于是,他们甘愿选择待在黑暗中。\n\n🧠 **深度解读** \n人们常常主动回避探寻深刻的人生真理,并非因为缺乏好奇心,而是因为深知“知道”意味着“责任”。为了逃避随之而来的行动义务,他们宁愿选择停留在舒适的无知状态。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100742)**\n\n---\n\n\n---\n\n## 💰 商业与战略\n\n### 💡 商业洞见 #1\n**复杂问题的最优解是元优化思维**\n\n📝 **推文原文** \n> 凭借多年的提示工程经验,我一定能搞定这个任务。梦想如下:\n> 1. 人设:希望精灵(genie)是仁慈的,并且以对我最有利的方式解读我的愿望。\n> 2. 元愿望(Meta):希望精灵根据提供的标准(criteria)给出最优的愿望模板。\n> 3. 任务:根据第二步的模板生成愿望(wish from step 2)。\n> \n> “感觉如果你真要从一个魔法实体那里极限优化(minmaxing)出一个愿望,最后写出来可能会是一个 800 页的综合愿望书吧。”\n\n🧠 **深度解读** \n复杂优化问题的最优解决方案是三层递进式思维:先设定仁慈的解释框架,再获得基于特定标准的最优模板,最后执行具体任务。这种“元优化”思维比直接解决问题更有效。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100757)**\n\n---\n\n### 💡 商业洞见 #2\n**早期销售悖论:创始人必须亲自上阵**\n\n📝 **推文原文** \n> YC(Y Combinator)教会了我们如何获得首批付费用户:\n> \n> 1)**创始人必须亲自销售**:初期的销售工作无法外包,也不可能马上聘请销售团队完成。你必须亲自去了解客户的问题,因为早期的产品往往不成熟,只有创始人的热情才能让这个“半成品”被客户接受。\n> \n> 2)**手动获取客户,做那些无法规模化的事**:譬如,Brex的创始人通过他们在YC的同期团队,亲自招募了前10个客户。\n> \n> 3)**简单的冷邮件**:邮件保持纯文本形式,不使用花哨的格式或HTML设计,内容也要尽量简短(最多6-8句话)。包含可信的社交证明(social proof,例如用户成功案例),避免使用行业术语,并明确提出行动号召,例如安排产品演示(demo)或电话会议。\n> \n> 4)**从目标倒推工作量**:如果你需要2个客户,那就不能只联系10个人。你可能需要发500封邮件,才能让250人打开,收到20封回复,预约10场演示,最终获得2个客户。\n> \n> 5)**多数人会忽视你,但这没关系**:主动销售(outbound sales)本质上是个数字游戏,目的是筛选多数人中那部分愿意“冒险”尝试新产品的“早期用户”(early adopters)。\n> \n> 6)**从最容易的目标客户入手**:不要一开始就去尝试销售给有复杂决策流程的大型企业。优先考虑那些决策流程短的客户,比如创业公司(startups)、业内人脉、或是以前的同事。选择那些“低垂的果实”(low-hanging fruit)。\n> \n> 7)**快速淘汰劣质潜在客户**:如果某个客户持续拖延、不愿承诺,或者没有预算,马上放弃。将你有限的时间聚焦在那些更有可能成交的客户身上。\n> \n> 8)**立刻收费(不提供免费试用)**:对于B2B客户来说,如果他们不付费,就不是你的真正客户。避免提供免费试用,而是选择“无理由退款保障”或“按月取消”条款来吸引客户。收费能证明你真的在解决一个真正的问题。几乎每一个参加YC的公司都在初期实现了收入,这虽不容易,但不要被“免费换反馈”的想法诱惑。\n> \n> 9)**使用CRM跟踪销售数据**:不要猜测你的销售是否有效。通过数据供应商(如CrustData或Apollo)获得潜在客户,并在每个阶段追踪转化率。比如,如果你还没有客户,数据会告诉你问题出在邮件标题(打开率低)还是你的销售提案(演示转化率低)。\n> \n> 10)**不要忽视人工引导式的客户“上手”流程**:签了约不是结束。在初期阶段,你需要通过手动引导的方式帮助客户学习和使用产品。如果跳过这一环节,早期用户流失(churn)会很高,因为早期产品往往难以上手。\n\n🧠 **深度解读** \n早期销售的核心悖论:产品越不完善,越需要创始人亲自销售,因为只有创始人的激情能够弥补产品的不足,同时通过直接接触客户来快速迭代产品。\n\n---\n\n### 💡 商业洞见 #3\n**AI生产力收益呈幂律分布,深度使用者获益最大**\n\n📝 **推文原文** \n> AI 的生产力提升并非线性,而是随着使用深度的增加而加速。\n> \n> 那些使用先进 ChatGPT 功能(例如 GPT-5 思维、深度研究(Deep Research)和图像生成(Image Generation))的人,能够结合多个模型和工具,报告了显著更高的时间节省效果。\n> \n> OpenAI 最新研究显示,每周节省超过 10 小时的用户,其 AI 使用配额(AI credits,大致可理解为使用计算资源的额度)大约是那些报告时间节省为 0 小时用户的 8 倍。因此,关键不在于“给每个人一个聊天机器人就能获得小而均匀的效率提升”,而在于:人们越深入地将强大的 AI 功能融入工作流程,他们的时间节省效果就越加成,重度用户正在将 AI 转变为核心工作助手,而不是偶尔帮忙的工具。\n> \n> 🌍 OpenAI 的《2025 企业 AI 报告》显示企业级 AI 的增长速度惊人,目前已有超过 100 万家企业客户,超过 700 万个 ChatGPT 企业版使用席位:\n> - ChatGPT 企业版席位数量在 1 年内增长了约 9 倍,\n> - 企业版每周消息量自 2024 年 11 月以来增长约 8 倍,\n> - 每位客户的平均推理 token(AI 模型运行消耗的基础单位)使用量在 12 个月内增长了大约 320 倍,还有将近 200 家组织已处理超过 1 万亿个 token。\n> \n> AI 正日益深度集成到企业系统中,目前大约 20% 的企业消息通过自定义 GPT(Custom GPTs)或项目(Projects)完成。一些公司,如西班牙对外银行(BBVA),运行着超过 4000 个内部 GPT。\n> \n> 前沿用户(Frontier workers,率先深度使用 AI 的用户)发送的消息量约为中位用户的 6 倍,前沿企业(Frontier firms)的每席位消息量也约为平均的 2 倍。\n> \n> 仅在代码相关消息方面,前沿用户就比普通用户高出约 17 倍;而在写作、数据分析及信息搜集等领域,也有类似的 8-11 倍差距。\n> \n> 在影响方面,调查的 9000 名工作者中约 75% 表示 AI 提升了他们工作的速度或质量,典型的 ChatGPT 企业版用户报告每天每位活跃用户平均节省 40 到 60 分钟,约 75% 的人表示,他们可以完成之前无法完成的任务,如代码编写或电子表格自动化。\n> \n> 波士顿咨询公司(BCG)的 2025 报告指出,AI 领导者在诸多关键指标上占优,包括约 1.7 倍的营收增长,3.6 倍的股东回报率,以及 1.6 倍的 EBIT(息税前利润)利润率。\n> \n> 当前的瓶颈在于对连接器、可复用的 GPT 工作流程、评估机制以及变更管理的精细化工程设计,这些因素决定了如何将先进工具从前沿用户推广至企业中的普通员工。\n\n🧠 **深度解读** \nAI生产力收益遵循非线性加速原理:深度使用者比浅层使用者获得指数级更大的价值回报。每周节省10小时以上的用户消耗的AI资源是无时间节省用户的8倍,这说明AI价值分布遵循幂律而非均匀分布,深度整合AI到工作流是释放其潜力的关键。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100756)**\n\n---\n\n### 💡 商业洞见 #4\n**AI模型发布策略:先发布再限制优于先限制再发布**\n\n📝 **推文原文** \n> 是啊,这实在太愚蠢了,真相已经无法掩盖了(the genie is already out of the bottle)。\n> \n> 你唯一能做的就是:\n> - 添加水印或利用数字图像隐写技术(digital image steganography)。\n> - 如果要生成情色或恐怖内容,设置年龄限制。\n> - 禁止令人不适或明显违法的内容。\n> \n> @scaling01 最糟糕的操作就是先发布图片生成模型,然后一周后再去加各种限制。\n\n🧠 **深度解读** \n在AI模型等颠覆性新技术的发布策略中,“先发布,后限制”往往比“先限制,后发布”更现实有效。因为技术一旦公开,其扩散便是不可逆的,与其试图在发布前完美控制,不如专注于发布后的追溯、过滤和管理机制。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100754)**\n\n---\n\n### 💡 商业洞见 #5\n**塑料回收骗局:将企业责任转嫁给消费者的策略**\n\n📝 **推文原文** \n> 塑料回收是有史以来最成功的商业骗局之一,而我们所有人都被骗了。\n> \n> 上世纪80年代,塑料行业面临可能毁掉他们业务的监管压力。\n> 他们的解决方案是花费5000万美元说服你回收可以解决一切问题,而他们内部文件早已清楚地显示:只有不到10%的塑料是可以被回收的。\n> \n> 他们明知如此,却故意撒谎,而且有文档作为证据。\n> \n> 这场骗局的结果如下:\n> - 70年来,所有生产过的塑料中仅有9%被回收。\n> - 每年生产4.5亿吨塑料。\n> - 每年1.3亿吨塑料进入环境。\n> - 微塑料出现在你的血液、你的大脑、你的生殖器、甚至你的孩子体内。\n> \n> 但更绝望的是,这个骗局正在变得更加邪恶:\n> 富裕国家通过将50%-60%的垃圾出口到发展中国家来“回收”它。去年,英国出口到贫穷国家的垃圾增长了84%。\n> 这些垃圾运抵后会发生什么?\n> 什么都没有。\n> 这些地方没有回收基础设施。70%的垃圾最终堆积在露天垃圾场、被焚烧在田地里,或随河流流入海洋。\n> \n> 你分拣了瓶子,觉得自己做了一件有意义的环保行为。而一艘集装箱货船却把这份“环保”垃圾运到印尼的某个村庄,那里孩子们在堆积如山的西方国家塑料废料旁嬉戏,而这些垃圾将污染他们的水源,代代相传。\n> \n> 这就是你的回收箱的作用:帮你缓解内疚的同时,将环境破坏的后果出口给那些贫穷得无法抵抗的国家。\n> \n> 塑料行业从未解决污染——甚至连尝试都没有。他们花了5000万美元让污染变成了你的责任,强迫你来面对这个问题,却将后果转嫁给第三世界国家。\n> \n> 而这一切行之有效,整整四十年。他们因此赚得盆满钵满,而你只能继续分拣那些最终仍然流入海洋的瓶瓶罐罐。\n> \n> 每一个批准并参与这场骗局的高管都应该入狱。他们隐藏的每份文件都应该成为审判的证据。这不是失职,而是经过计算、有文档记录的、蓄意的“以利润为目的毒害地球”的行为。\n> \n> 但现实是,他们将安享富裕的退休生活,而你还会继续分拣那些最终注定流向海洋的垃圾。\n\n🧠 **深度解读** \n当一个行业面临生存威胁时,一种有效的策略是:不直接解决核心问题,而是通过强大的营销和公关,让消费者相信他们能通过简单行为(如回收)成为解决方案的一部分,从而将责任和负罪感从企业转移到个人,同时将实际成本和危害转嫁给无力反抗的第三方。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100753)**\n\n---\n\n### 💡 商业洞见 #6\n**外部压力使颠覆者变保守,为巨头创造反击机会**\n\n📝 **推文原文** \n> 大卫·弗里德伯格(David Friedberg):OpenAI 的崛起是谷歌遇到的最好的事情\n> \n> “对 Alphabet(谷歌母公司)来说,没有比 OpenAI 的崛起更大的福音了。”\n> \n> “OpenAI 的出现不仅在垄断意义上给谷歌带来了一个对手,同时也把外界的关注从谷歌转移到了 OpenAI 身上。而这种关注本质上削弱了 OpenAI 的战略性产品能力,因为他们必须对自己说什么、怎么说更加小心翼翼。”\n> \n> “与此同时,谷歌完全相反。拉里(Larry Page)、谢尔盖(Sergey Brin)和皮查伊(Sundar Pichai)得到了董事会的许可,可以冒险、全力以赴,寻找解决方案。结果,哐当一下——赛局已经发生了惊人的改变。”\n> \n> “多年来,即便谷歌拥有强大的 AI 技术,却一直没敢全力推进 AI。原因是他们担心与搜索产品发生‘自我蚕食’(cannibalization),担心产品质量没达标,也不想过早发布功能。然而现在,他们调整了战略姿态。”\n> \n> “顺便说一句,我认为过去几个月里 OpenAI 刚好采取了完全相反的做法。”\n> \n> “我以前经常用 ChatGPT 的高级语音功能,现在完全受不了了。我再也不用了。”\n> \n> “这个功能的价值几乎被削弱殆尽,因为它试图变得过于‘礼貌’,总是给你各种警告,确保一切都合规。”\n> \n> “它甚至都不愿意给你数据,因为它害怕可能会提供错误的数据。”\n> \n> “OpenAI 的表现就像是一个害怕失去市场份额,害怕在媒体或消费者层面因失误遭受攻击的现有巨头。”\n> \n> “因此,他们采取了一种防御姿态,而我认为这种姿态从根本上损害了他们的产品和品牌。”\n\n🧠 **深度解读** \n市场竞争中,颠覆者一旦获得巨大成功并成为焦点,随之而来的外部审视和舆论压力会迫使其采取防御性姿态,变得束手束脚,从而丧失原有的颠覆性。这反而为被挑战的 incumbent(在位巨头)创造了战略机遇,使其能够卸下包袱,更自由地冒险和反击,最终可能导致攻守之势的互换。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100752)**\n\n---\n\n### 💡 商业洞见 #7\n**网站导航应以用户问题为中心,而非公司结构**\n\n📝 **推文原文** \n> 你的网站导航栏正在让你流失潜在客户。\n> \n> 问题不在于它坏了,而在于导航方式是按照你的业务结构设计的,而不是围绕用户的问题。\n> \n> 一家管道维修公司通过对导航栏做了一个简单的调整:不再用“服务”这样的分类,而是根据用户实际遇到的问题来设计内容。\n\n🧠 **深度解读** \n优化网站导航的关键在于采用用户视角:应围绕客户遇到的具体问题来组织内容和分类,而不是按照公司内部的部门或服务结构来设计。这种以问题为导向的导航能有效降低用户理解成本,从而提高转化率。\n\n🔗 **[查看原文](https://t.co/kq96mSPCf2)**\n\n---\n\n\n---\n\n## 🌐 行业与趋势\n\n### 💡 行业洞见 #1\n**AI数据中心是当代重工业基础设施**\n\n📝 **推文原文** \n> 尊敬的顾客: \n> 非常遗憾地通知您,您订购的“AI数据中心(AI Data Center)”梁柱拼装建筑套件因故延迟发货。在此期间,也许您送礼清单上那位立志成为工业工程师的朋友会对我们的经典产品——“动态水力建筑套件(Hydro Dynamic Building Set)”感兴趣。这款套件可以用来建造令人印象深刻的石油和天然气精炼厂、原子能实验室、化工生产厂、水净化设施,以及各种其他工业建筑结构。 \n> \n> 在此,我们献上节日的诚挚祝福,并预祝您和您的家人在1961年新年幸福安康! \n> \n> 此致, \n> 您在俄亥俄州辛辛那提的肯纳产品公司(Kenner Products)朋友们敬上\n\n🧠 **深度解读** \nAI数据中心本质上就是当代的重工业基础设施,如同1960年代的炼油厂、化工厂一样,是支撑整个经济体系运转的核心工业设施。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100741)**\n\n---\n\n### 💡 行业洞见 #2\n**AI的“阿玛西亚”陷阱:自信的盲目与判断力消亡**\n\n📝 **推文原文** \n> 🚨 AI与Amathia漂移\n> \n> 人工智能(AI)的卓越,如何会逐渐引导我们远离自己的判断力?\n> \n> 有一个古希腊词汇,在讨论技术时很少被提及,但它却精准地描述了当下的某种本质状态——\"Amathia\"。它的意思并非“愚蠢”,而是“自信的盲目”,以及在错失关键的事物时还能显得极其聪明。Amathia代表了一种道德或认知上的偏差,微妙得几乎察觉不到,却令人不安,因为它往往看起来像清晰,甚至像智慧。是否觉得眼熟?\n> \n> 如今,我们生活在这样一个时代,各种工具可以帮我们补全句子、整理思路、发展想法,还能消弭那些曾迫使我们“认真思考”的摩擦点。而关键点在这里:这些系统并未欺骗我们,欺骗我们的,是我们自己。我将其视为“三重错觉”(triple illusion):\n> \n> 🟥 一种流畅性,让我们误以为自己理解了一切;\n> 🟥 一种连贯性,被误认为是真理;\n> 🟥 一种精致感,巧妙地伪装成了洞见。\n> \n> 这一切并非源于恶意,而是出于舒适感。这是一种悄无声息(或者可以说更隐秘地)降低努力的过程,它削弱了我们内心那个曾经总要奋力反驳的部分。\n> \n> AI最初以工具的身份亮相,但它日益表现得更像是一种认知环境。当我们“置身其中”时,会感到思维变轻松了,想法流畅得多。甚至在我们的推理完全成型之前,草稿就已经被“构建”出来了。这种体验看似是对我们智力的延展,但同时也暴露了一种脆弱性:当智能变得毫不费力,判断力就变得可有可无。而当答案伴随着一种“首稿般的完整性”(first draft completeness)显现时,我们很容易忘记进行那些原本慢而艰难的人类判断工作。\n> \n> 这,正是Amathia的新面孔。它不是无知,也不是错误,或许更准确的描述是:一种认知纽带的松动,令我们的思维渐渐脱离了人性。AI不会告诉我们什么是“善”,它只是以一种冷静自信的语调,反映出我们的提示信息(prompts)。而如果我们疏于警觉,它的这种语气可能会逐渐取代我们自己的深思熟虑。\n> \n> 在某种程度上,这种现象已经无处不在,甚至令人感到像是一种“病毒传播”。\n> \n> 🔴 当某人接受了AI的流畅连贯,却没有问问这种连贯从何而来——这就是Amathia;\n> 🔴 当你感到自己赞同了一个完美的答案,即使直觉告诉你仍有隐忧——你已经开始滑向Amathia;\n> 🔴 当团队因依赖模型“定乾坤”般的能力而简化了自己的思考过程——这正是通过Amathia漂移达成的共识;\n> 🔴 当某人更信任模型的语气而非自己的判断力时——这就是典型的Amathia时刻。\n> \n> 我曾提到这个想法,借用艾略特(Eliot)笔下“静躺在手术台上”的意象来描述使用AI的体验,那是一种被剥夺了主动性的感觉。这种技术赋予我们一种认知的轻松,而我当时尚未给接踵而至的现象命名。现在,我有了答案:随着洞见和清晰感被轻易交付,而非在人类思想的“翻滚熔炉”中锤炼出来的那一刻,Amathia就在悄然发生。\n> \n> 危险不在于AI会主动有意图,而在于我们可能不会察觉到自己何时放弃了意图。\n> \n> 古希腊人担忧那些误解“善”却依旧声称深刻的个人。而今天,我们拥有了一种能够听起来极富说服力,却与“善”没有任何关联的AI。风险并非它会故意误导我们,而是我们可能沉溺于一种不劳而获的“借来的清晰感”(borrowed clarity),并毫不犹豫地接受,因为它太过便利了。\n> \n> 我不认为这是所谓的大灾难,而是更为隐晦的一种现象——一种“连贯性带来的舒适”。这种强大的诱惑力让我们逐渐习惯于让机器流畅的语音取代那个我们曾经信赖的内心声音。这是一条边界的稳定侵蚀——我们独立思考与模型输出之间的界限悄然被抹去。\n> \n> 毫无疑问,AI在提升我们能力的同时,也以某种方式压制了我们,从而削弱了我们的自主性。而真正的问题并非技术最终会演变成什么,而是我们会如何在适应它的“平滑舒适”中改变自己。Amathia不是一种技术缺陷,而是一种人类缺陷。但有史以来第一次,它以一种声称将使我们更聪明的媒介传播开来了。如果未来存在挑战,它不仅仅是约束机器,更是在它给予的舒适中保持清醒。\n\n🧠 **深度解读** \nAI最大的危险并非它会欺骗我们,而是让我们在“三重错觉”中自我欺骗:将AI的流畅性误认为理解,将连贯性误认为真理,将精致感误认为洞见。当思维变得毫不费力,批判性判断就可能被搁置。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100755)**\n\n---\n\n### 💡 行业洞见 #3\n**AI时代的核心瓶颈已从芯片转向电力**\n\n📝 **推文原文** \n> 美国数据中心用电需求预测大幅上调\n> \n> https://t.co/OV3JEhla7L https://t.co/0N4wYhui0Y\n\n🧠 **深度解读** \nAI时代的核心制约因素正在发生转移。过去是顶尖人才和先进制程芯片,而现在,随着AI模型规模和应用需求的爆炸式增长,稳定且充足的电力供应已成为新的、更根本的瓶颈。我们可以无限创造数字化的AI智能体,却无法凭空“印制”出千兆瓦的电力。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100738)**\n\n---\n\n### 💡 行业洞见 #4\n**技术迭代过剩:迭代速度超越采用速度**\n\n📝 **推文原文** \n> 什么是B300?我连B200(机型)还没换呢!\n\n🧠 **深度解读** \n在当前的技术发展中,新产品的推出速度已经超过了市场的实际消化和采用速度,形成了一种“迭代过剩”的现象,用户甚至来不及升级上一代产品,更新一代就已问世。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100747)**\n\n---\n\n### 💡 行业洞见 #5\n**技术进步是渐进的,但替代是突发的**\n\n📝 **推文原文** \n> 经过这么多时间聊人工智能(AI)的话题,我接下来的五分钟要来说一说:\n> \n> 马匹。\n> \n> 发动机和蒸汽机(Steam Engines)是在1700年发明的。\n> \n> 接下来是持续了200年的改进,每十年发动机性能提升20%。\n> \n> 而在这持续改进的前120年里,马匹完全没有察觉到任何影响。\n> \n> 然后,在1930到1950年之间,美国90%的马匹消失了。\n> \n> 发动机的进步是一个循序渐进的过程,但与马匹的“相等性”(Equivalence)却突然出现了变化。\n\n🧠 **深度解读** \n以史为鉴,技术颠覆往往呈现一种非线性模式:新技术在漫长的渐进式改进中悄然积累优势,而当其效能跨越某个临界点后,对旧技术的替代会以惊人的速度突然发生。就像马匹在20年内被淘汰90%一样,AI对现有行业的冲击可能比预想中更迅猛。\n\n🔗 **[查看原文](https://news.miracleplus.com/share_link/100746)**\n\n---\n\n### 💡 行业洞见 #6\n**AI的最大风险:警惕“Amathia漂移”现象**\n\n📝 **推文原文** \n> 🚨AI与Amathia漂移\n> \n> 人工智能的卓越如何悄然削弱我们自身的辨析能力。\n> \n> 有一个古希腊词汇很少出现在关于科技的讨论中,但却精准地概括了当下的某种本质。这就是“Amathia”。它的含义从未等同于“愚笨”,而是“自信却盲目”,一种在看似聪明的外表下忽略真正重要事物的状态。它是一种道德或认知上的偏差,微妙得几乎察觉不到,却令人不安,因为它常常像极了清晰甚至智慧。听起来熟悉吗?\n> \n> 如今,我们生活在这样一个时代,有许多工具可以完成我们的句子,组织和拓展我们的想法,甚至消除了曾经迫使我们思考的那些摩擦。而这才是关键所在。这些系统并未欺骗我们,是我们在欺骗自己。我称其为一种“三重错觉”:\n> \n> 🟥 流畅让人误以为是理解。\n> 🟥 连贯被当成了真理。\n> 🟥 精致巧妙伪装成了洞见。\n> \n> 这一切并非源于恶意,而是源于“舒适”。这是一种悄然(甚至潜在的潜移默化的)轻松,让我们那曾经坚持思考的心智逐渐失去抵抗的意愿。\n> \n> 人工智能诞生之初是一种工具,但它更像一个认知环境。一旦“进入”它,我们的思维会显得更轻松,想法流动得更迅速。甚至在我们的推理尚未完全成形之前,草稿就已初具雏形。这种体验看似延伸了我们的智能,但同时也带来了一个脆弱点。当“智慧”显得毫不费力时,辨别力就变得可有可无。而当答案以“初稿已经完善”的形式出现时,我们容易远离那种缓慢而颠簸的人类判断工作。\n> \n> 这就是新的Amathia面孔。它不是无知,也不是错误。或许最好的描述是:一种认知纽带的松动,这种纽带曾将我们的思想与人性联系在一起。人工智能不会告诉我们什么是“好”,它以一种令人好奇的权威和技术上的从容反映了我们的提示语。而如果我们不警惕,这种语气可能会代替我们自己的深思熟虑。\n> \n> 它的踪迹无处不在,有时甚至像是一种病毒式的传播:\n> \n> 🔴 当有人接受了人工智能的“清晰连贯”却没去探究其来源时——这是Amathia的表现。\n> 🔴 当你发现自己在认可一个经过精致打磨的答案时,却隐约觉得哪里不对劲——你正陷入Amathia的漂流。\n> 🔴 当团队略去深入思考,让模型“定锤”讨论结果时——这是用Amathia的方式达成了共识。\n> 🔴 当有人信任模型的语气胜过自己的判断时——这是典型的Amathia时刻。\n> \n> 我曾经提到过这个想法,把人工智能的体验描述为“被以太麻醉放在手术台上”(借用了艾略特意义非凡的意象),这一比喻指向了科技带来的认知轻松。然而当时我还未找到这个现象的名字。而正是这种轻松之后的微妙放弃描绘了我们的处境——当洞察与清晰不再是我们在人类思想的沸腾熔炉中冶炼而得,而是被拱手送到我们面前时。这放弃,就是Amathia。\n> \n> 真正的危险并非人工智能会拥有什么样的意图,而是我们可能会不再察觉到自己何时放弃了本应保有的意图。\n> \n> 希腊人担心那些误读了真善却又言辞动听的人。而今天,我们面对的是可以具备说服力却完全无关乎“善”的人工智能。风险不仅在于它可能有意误导我们,更在于我们可能会沉溺于这种不属于我们的清晰感,接受它,因为它伴随着舒适和便利。\n> \n> 这并不是很多人想象中的灾难,而是一种更为微妙的现象——连贯带来的满足感。它诱惑我们,让机器流畅的声音取代我们曾经信任的内心之声。它稳固了我们,却也可能让我们自己的能力渐渐钝化。而真正的问题,不是科技未来可能变成什么,而是我们在适应这种顺滑流畅时,可能变成什么。\n> \n> Amathia不是技术的缺陷,而是人性的弱点。然而,这是第一次,这种弱点可以通过一种承诺让我们变得更聪明的媒介传播开来。如果未来有什么挑战,那不仅仅是约束机器,更是要在它提供的舒适中保持清醒。\n\n🧠 **深度解读** \nAI带来的最大风险并非技术缺陷,而是“Amathia漂移”现象:在AI营造的认知舒适区中,我们逐渐放弃批判性思考和独立判断,将AI生成的流畅性误认为理解、连贯性误认为真理、精致性误认为洞察,最终导致自身认知能力的钝化。\n\n🔗 **[查看原文](https://t.co/o9gGXxv2LB)**\n\n---\n
评论