ICL

Prezzo ICL Group Ltd (ADRs)

Closed
ICL
$5,43
-$0,11(-1,98%)

*Data last updated: 2026-04-29 00:33 (UTC+8)

As of 2026-04-29 00:33, ICL Group Ltd (ADRs) (ICL) is priced at $5,43, with a total market cap of $7,00B, a P/E ratio of 32,60, and a dividend yield of 3,73%. Today, the stock price fluctuated between $5,37 and $5,44. The current price is 1,11% above the day's low and 0,18% below the day's high, with a trading volume of 1,14M. Over the past 52 weeks, ICL has traded between $5,08 to $5,67, and the current price is -4,23% away from the 52-week high.

ICL Key Stats

Yesterday's Close$5,54
Market Cap$7,00B
Volume1,14M
P/E Ratio32,60
Dividend Yield (TTM)3,73%
Dividend Amount$0,04
Diluted EPS (TTM)0,17
Net Income (FY)$226,00M
Revenue (FY)$7,15B
Earnings Date2026-05-13
EPS Estimate0,10
Revenue Estimate$1,92B
Shares Outstanding1,26B
Beta (1Y)0.938
Ex-Dividend Date2026-03-10
Dividend Payment Date2026-03-25

About ICL

ICL Group Ltd, together with its subsidiaries, operates as a specialty minerals and chemicals company worldwide. It operates in four segments: Industrial Products, Potash, Phosphate Solutions, and Innovative Ag Solutions (IAS). The Industrial Products segment produces bromine out of a solution that is a by-product of the potash production process, as well as bromine-based compounds; produces various grades of potash, salt, magnesium chloride, and magnesia products; and produces and markets phosphorous-based flame retardants and other phosphorus-based products. The Potash segment extracts potash from the Dead Sea; mines and produces potash and salt; produces Polysulphate; produces, markets, and sells magnesium and magnesium alloys, as well as related by-products, including chlorine and sylvinite; and sells salt. The Phosphate Solutions segment uses phosphate commodity products to produce specialty products; produces and markets phosphate-based fertilizers, as well as sulphuric acid, green phosphoric acid, and phosphate fertilizers; and manufactures thermal phosphoric acid for various industrial end markets, such as oral care, cleaning products, paints and coatings, water treatment, asphalt modification, construction, and metal treatment. It also develops and produces functional food ingredients and phosphate additives for use in the processed meat, poultry, seafood, dairy, beverage, and baked goods markets; and produces milk and whey proteins for the food ingredients industry. The IAS segment develops, manufactures, markets, and sells fertilizers based primarily on nitrogen, potash, and phosphate, including water soluble specialty, liquid, soluble, and controlled-release fertilizers. It sells its products through marketing companies, agents, and distributors. The company was formerly known as Israel Chemicals Ltd. and changed its name to ICL Group Ltd in May 2020. The company was founded in 1968 and is headquartered in Tel Aviv, Israel.
SectorBasic Materials
IndustryAgricultural Inputs
CEOElad Aharonson
HeadquartersTel Aviv,None,IL

ICL Group Ltd (ADRs) (ICL) FAQ

What's the stock price of ICL Group Ltd (ADRs) (ICL) today?

x
ICL Group Ltd (ADRs) (ICL) is currently trading at $5,43, with a 24h change of -1,98%. The 52-week trading range is $5,08–$5,67.

What are the 52-week high and low prices for ICL Group Ltd (ADRs) (ICL)?

x

What is the price-to-earnings (P/E) ratio of ICL Group Ltd (ADRs) (ICL)? What does it indicate?

x

What is the market cap of ICL Group Ltd (ADRs) (ICL)?

x

What is the most recent quarterly earnings per share (EPS) for ICL Group Ltd (ADRs) (ICL)?

x

Should you buy or sell ICL Group Ltd (ADRs) (ICL) now?

x

What factors can affect the stock price of ICL Group Ltd (ADRs) (ICL)?

x

How to buy ICL Group Ltd (ADRs) (ICL) stock?

x

Risk Warning

The stock market involves a high level of risk and price volatility. The value of your investment may increase or decrease, and you may not recover the full amount invested. Past performance is not a reliable indicator of future results. Before making any investment decisions, you should carefully assess your investment experience, financial situation, investment objectives, and risk tolerance, and conduct your own research. Where appropriate, consult an independent financial adviser.

Disclaimer

The content on this page is provided for informational purposes only and does not constitute investment advice, financial advice, or trading recommendations. Gate shall not be held liable for any loss or damage resulting from such financial decisions. Further, take note that Gate may not be able to provide full service in certain markets and jurisdictions, including but not limited to the United States of America, Canada, Iran, and Cuba. For more information on Restricted Locations, please refer to the User Agreement.

Other Trading Markets

ICL Group Ltd (ADRs) (ICL) Latest News

2025-06-17 05:43

ICL确认与朝鲜关联个人曾贡献于Cosmos代码库 其代码已移除且无遗留风险

Gate News bot 消息,Interchain Labs(ICL)已确认,一名后来被确认与朝鲜有关联的个人在 2022 年至 2024 年期间受雇于前维护人员期间,曾为 Cosmos 代码库做出贡献。 这位 Cosmos 核心开发人员与安全联盟 (Security Alliance) 和 Asymmetric Research 合作发布了一份安全报告,证实该个人对两个代码库的访问权限有限:cosmos/IAVL 和 cosmos/cosmos-sdk。审查发现,在 SDK v2 取消后,他贡献的大部分代码已被弃用或从路线图中移除,独立审计未发现任何剩余风险或漏洞。 然而,为了提高透明度,ICL 将在下个月在 Cosmos HackerOne 页面上提供双倍赏金,奖励发现与该参与者的 GitHub 帐户“cool-develope”相关的任何符合条件的漏洞的人员。 具体而言,该个人从 2022 年年中到 2024 年 11 月,在 ICL 成立和 Cosmos 第三方维护模式结束之前,曾为前核心堆栈维护供应商工作。ICL 在一份声明中表示,在接管所有核心堆栈开发后,团队实施了新的安全和招聘协议,从而发现了这个问题,并阻止其进一步的贡献。同一人后来再次申请职位,但被标记并被拒绝。 ICL 表示,自 2 月份以来,它已对所有核心 Cosmos 存储库实施了全面的安全升级,包括撤销旧访问权限、重新许可所有贡献者、轮换凭证以及加强审计控制。 消息来源:The Block

Hot Posts su ICL Group Ltd (ADRs) (ICL)

MarsBitNews

MarsBitNews

04-25 04:25
null 原文作者:Malika Aubakirova、Matt Bornstein,a16z crypto 原文编译:深潮 TechFlow 在克里斯托弗·诺兰的《记忆碎片》(Memento)里,主角 Leonard Shelby 活在一个破碎的当下。脑损伤让他患上了顺行性遗忘症,无法形成新记忆。每隔几分钟,他的世界就重置一次,被困在永恒的「此刻」,不记得刚才发生了什么,也不知道接下来会怎样。为了活下去,他在身上纹字、拍拍立得,靠这些外部道具来替代大脑无法完成的记忆功能。 大语言模型也活在类似的永恒当下。训练结束后,海量知识被冻结在参数里,模型无法形成新记忆,无法根据新经验更新自己的参数。为了弥补这个缺陷,我们给它搭了一堆脚手架:聊天历史充当短期便签,检索系统当外部笔记本,系统提示词就像身上的纹身。但模型本身,从来没有真正内化过这些新信息。 越来越多的研究者认为,这样不够。上下文学习(ICL)能解决的问题,前提是答案(或答案的碎片)已经存在于世界的某个角落。但对于那些需要真正发现的问题(比如全新的数学证明),对抗性场景(比如安全攻防),或者那些太隐性、无法用语言表达的知识,有充分的理由认为:模型需要一种方式,在部署之后把新知识和经验直接写入参数。 上下文学习是临时的。真正的学习需要压缩。在我们允许模型持续压缩之前,可能都困在《记忆碎片》的永恒当下里。反过来说,如果我们能训练模型学会自己的记忆架构,而不是依赖外挂的定制工具,可能会解锁一个全新的 scaling 维度。 这个研究领域叫持续学习(continual learning)。这个概念并不新(参见 McCloskey 和 Cohen 1989 年的论文),但我们认为它是当前 AI 领域最重要的研究方向之一。过去两三年模型能力的爆发式增长,让模型「已知」和「能知」之间的鸿沟越来越明显。这篇文章的目的是分享我们从该领域顶级研究者那里学到的东西,帮助厘清持续学习的不同路径,并推动这个话题在创业生态中的发展。 注:这篇文章的成型得益于与一群优秀的研究者、博士生和创业者的深度交流,他们慷慨地与我们分享了自己在持续学习领域的工作和见解。从理论基础到部署后学习的工程现实,他们的洞见让这篇文章比我们独自撰写的要扎实得多。感谢你们贡献的时间和想法! 先聊上下文 在为参数级学习(即更新模型权重的学习)辩护之前,有必要承认一个事实:上下文学习确实管用。而且有一种很有力的论证认为它会继续赢下去。 Transformer 的本质是基于序列的条件化下一个 token 预测器。给它正确的序列,你就能得到令人惊讶的丰富行为,根本不需要碰权重。这就是为什么上下文管理、提示工程、指令微调和少样本示例这些方法如此强大。智能封装在静态参数里,而表现出来的能力随着你喂进窗口的内容剧烈变化。 Cursor 最近关于自主编程智能体 scaling 的深度文章就是一个好例子:模型权重是固定的,真正让系统跑起来的是对上下文的精心编排——放什么进去、什么时候做摘要、如何在数小时的自主运行中维持连贯状态。 OpenClaw 是另一个好例子。它爆火不是因为有特殊的模型权限(底层模型所有人都能用),而是因为它把上下文和工具极其高效地转化成了工作状态:追踪你在做什么、结构化中间产物、决定什么时候重新注入提示词、维持对之前工作的持久记忆。OpenClaw 把智能体的「外壳设计」提升到了一个独立学科的高度。 当提示工程最初出现时,很多研究者对「只靠提示词」能成为正经接口这件事持怀疑态度。它看起来像个 hack。但它是 Transformer 架构的原生产物,不需要重新训练,而且随着模型进步自动升级。模型变强,提示就变强。「简陋但原生」的接口往往能赢,因为它直接耦合到底层系统,而不是和它对着干。到目前为止,LLM 的发展轨迹正是如此。 状态空间模型:上下文的类固醇版 当主流工作流从原始 LLM 调用转向智能体循环时,上下文学习模型面临的压力越来越大。过去,上下文窗口被完全填满的情况相对少见。这通常发生在 LLM 被要求完成一长串离散任务时,应用层可以用比较直接的方式裁剪和压缩聊天历史。 但对智能体来说,一个任务就可能吃掉总可用上下文的很大一部分。智能体循环的每一步都依赖于前序迭代传递的上下文。而且它们经常在 20 到 100 步之后失败,因为「断了线」:上下文被填满,连贯性退化,无法收敛。 因此,主要 AI 实验室现在投入了大量资源(即大规模训练运行)来开发超长上下文窗口的模型。这是一条自然的路径,因为它建立在已经有效的方法(上下文学习)之上,并且与行业向推理时计算转移的大趋势契合。最常见的架构是在普通注意力头之间穿插固定记忆层,即状态空间模型(SSM)和线性注意力变体(下文统称为 SSM)。SSM 在长上下文场景下提供了根本性更好的 scaling 曲线。 图注:SSM 与传统注意力机制的 scaling 对比 目标是帮助智能体将连贯运行的步数提升几个数量级,从大约 20 步到大约 20,000 步,同时不丢失传统 Transformer 所提供的广泛技能和知识。如果成功,这对长时间运行的智能体来说是重大突破。 你甚至可以把这种方法看作一种持续学习的形式:虽然没有更新模型权重,但引入了一个几乎不需要重置的外部记忆层。 所以,这些非参数化方法是真实的、强大的。任何对持续学习的评估都必须从这里开始。问题不在于今天的上下文系统有没有用,它确实有用。问题是:我们是否已经看到了天花板,新的方法能否带我们走得更远。 上下文遗漏了什么:「档案柜谬误」 「AGI 和预训练发生的事情是,在某种意义上它们超调了……人类不是 AGI。是的,人类确实有一个技能基础,但人类缺少大量知识。我们依赖的是持续学习。 如果我造出一个超级聪明的 15 岁少年,他什么都不知道。一个好学生,非常渴望学习。你可以说,去当程序员,去当医生。部署本身就会涉及某种学习、试错的过程。这是一个过程,不是把成品直接扔出去。——Ilya Sutskever」 想象一个存储空间无限的系统。世界上最大的档案柜,每个事实都被完美索引,即时可检索。它能查到任何东西。它学到了吗? 没有。它从来没有被迫做压缩。 这是我们论证的核心,它引用了 Ilya Sutskever 之前提出的一个观点:LLM 本质上是压缩算法。在训练过程中,它们把互联网压缩成参数。压缩是有损的,而正是这种有损性让它变得强大。压缩迫使模型寻找结构、进行泛化、构建能跨上下文迁移的表征。一个死记硬背所有训练样本的模型,不如一个提取出底层规律的模型。有损压缩本身就是学习。 讽刺的是,让 LLM 在训练期间如此强大的机制(把原始数据压缩成紧凑、可迁移的表征),恰恰是我们在部署后拒绝让它们继续做的事。我们在发布那一刻停止了压缩,用外部记忆来替代。 当然,大多数智能体外壳都会以某种定制方式压缩上下文。但苦涩教训(bitter lesson)难道不是告诉我们,模型本身应该学会这种压缩,直接地、大规模地? Yu Sun 分享了一个例子来说明这场辩论:数学。看看费马大定理。350 多年来,没有数学家能证明它,不是因为他们缺少正确的文献资料,而是因为解法高度新颖。已有数学知识和最终答案之间的概念距离太大了。 Andrew Wiles 在 1990 年代终于攻克它时,他花了七年近乎与世隔绝地工作,不得不发明全新的技术来抵达答案。他的证明依赖于成功桥接两个不同的数学分支:椭圆曲线和模形式。虽然 Ken Ribet 此前已经证明如果能建立这个连接就能自动解决费马大定理,但在 Wiles 之前,没有人拥有能实际构建这座桥的理论工具。Grigori Perelman 对庞加莱猜想的证明也可以做类似的论证。 核心问题是:这些例子是否证明 LLM 缺少了某种东西,某种更新先验、进行真正创造性思考的能力?还是这个故事恰好证明了相反的结论——所有人类知识只是可供训练和重组的数据,Wiles 和 Perelman 不过展示了 LLM 在更大规模上也能做到的事? 这个问题是经验性的,答案尚不确定。但我们确实知道,有很多类别的问题上下文学习今天会失败,而参数级学习可能有用。例如: 图注:上下文学习失败、参数学习可能胜出的问题类别 更重要的是,上下文学习只能处理能用语言表达的东西,而权重可以编码提示词无法用文字传达的概念。有些模式维度太高、太隐性、太深层结构化,放不进上下文。比如,医学扫描中区分良性伪影和肿瘤的视觉纹理,或者定义一个说话人独特节奏的音频微波动,这些模式不容易被分解成精确的词汇。 语言只能近似它们。再长的提示词也传递不了这些东西;这类知识只能存活在权重里。它们活在学习表征的潜空间中,不是文字。无论上下文窗口增长到多大,总有一些知识是文本无法描述的,只能被参数承载。 这也许能解释为什么显式的「机器人记住你」功能(比如 ChatGPT 的 memory)经常让用户感到不适而非惊喜。用户真正想要的不是「回忆」,而是「能力」。一个已经内化了你行为模式的模型可以泛化到新场景;一个只是回忆你历史记录的模型做不到。「这是你上次回复这封邮件时写的内容」(逐字复述)和「我已经足够理解你的思维方式,能预判你需要什么」之间的差距,就是检索和学习的差距。 持续学习入门 持续学习有多种路径。分界线不在于「有没有记忆功能」,而在于:压缩发生在哪里?这些路径沿一个光谱分布,从无压缩(纯检索,权重冻结),到完全内部压缩(权重级学习,模型变得更聪明),中间还有一个重要地带(模块)。 图注:持续学习的三种路径——上下文、模块、权重 上下文 在上下文这端,团队构建更智能的检索管线、智能体外壳和提示词编排。这是最成熟的类别:基础设施经过验证,部署路径清晰。限制在于深度:上下文长度。 一个值得注意的新方向:多智能体架构作为上下文本身的 scaling 策略。如果单个模型被限制在 128K token 窗口内,一组协调的智能体群——每个持有自己的上下文、专注于问题的一个切片、互相通信结果——可以在整体上近似无限工作记忆。每个智能体在自己的窗口内做上下文学习;系统做聚合。Karpathy 最近的 autoresearch 项目和 Cursor 构建网页浏览器的例子是早期案例。这是纯粹的非参数化方法(不改权重),但它极大地抬高了上下文系统能做到的上限。 模块 在模块空间里,团队构建可插拔的知识模块(压缩的 KV 缓存、适配器层、外部记忆存储),让通用模型在不重新训练的情况下实现专业化。一个 8B 模型加上合适的模块,可以在目标任务上匹配 109B 模型的表现,内存占用只是其零头。吸引力在于它能兼容现有的 Transformer 基础设施。 权重 在权重更新这端,研究者在追求真正的参数级学习:只更新相关参数片段的稀疏记忆层、从反馈中优化模型的强化学习循环、在推理时将上下文压缩进权重的测试时训练(test-time training)。这些是最深层的方法,也是最难部署的,但它们真正允许模型完全内化新信息或新技能。 参数更新的具体机制有多种。列举几个研究方向: 图注:权重级学习的研究方向概览 权重级研究涵盖了多条并行路线。正则化和权重空间方法历史最久:EWC(Kirkpatrick et al., 2017)根据参数对先前任务的重要性来惩罚参数变化;权重插值(Kozal et al., 2024)在参数空间中混合新旧权重配置,但两者在大规模上都比较脆弱。 测试时训练由 Sun et al.(2020)开创,后来发展为架构原语(TTT 层、TTT-E2E、TTT-Discover),思路截然不同:在测试数据上做梯度下降,在需要的那一刻把新信息压缩进参数。 元学习问的是:我们能否训练出懂得「如何学习」的模型?从 MAML 的少样本友好参数初始化(Finn et al., 2017)到 Behrouz et al. 的嵌套学习(Nested Learning, 2025),后者将模型结构化为一个分层优化问题,不同时间尺度上运行快速适配和慢速更新的模块,灵感来自生物记忆巩固。 蒸馏通过让学生模型匹配冻结的教师检查点来保留先前任务的知识。LoRD(Liu et al., 2025)通过同时裁剪模型和回放缓冲区,让蒸馏高效到可以持续运行。自蒸馏(SDFT, Shenfeld et al., 2026)翻转了来源,用模型自己在专家条件下的输出作为训练信号,绕过了序列微调的灾难性遗忘。 递归自我改进运作在类似的思路上:STaR(Zelikman et al., 2022)从自生成的推理链中引导推理能力;AlphaEvolve(DeepMind, 2025)发现了几十年未被改进的算法优化;Silver 和 Sutton 的「经验时代」(2025)把智能体学习定义为一个永不停止的持续经验流。 这些研究方向正在汇聚。TTT-Discover 已经融合了测试时训练和 RL 驱动的探索。HOPE 把快慢学习循环嵌套在单一架构内。SDFT 把蒸馏变成了自我改进的基本操作。列与列之间的边界正在模糊。下一代持续学习系统很可能会组合多种策略:用正则化来稳定,用元学习来加速,用自我改进来复利。一批越来越多的创业公司正在押注这个技术栈的不同层级。 持续学习创业版图 光谱的非参数端最为人熟知。外壳公司(Letta、mem0、Subconscious)构建编排层和脚手架,管理放进上下文窗口的内容。外部存储和 RAG 基础设施(如 Pinecone、xmemory)提供检索骨干。数据存在,挑战是在正确的时间把正确的切片放到模型面前。随着上下文窗口扩展,这些公司的设计空间也随之增长,特别是在外壳端,一波新的创业公司正在涌现来管理日益复杂的上下文策略。 参数端更早期、也更多元。这里的公司在尝试某种版本的「部署后压缩」,让模型在权重中内化新信息。路径大致可以分成几种不同的赌注,关于模型在发布后应该「怎样」学习。 部分压缩:不重训也能学。一些团队在构建可插拔的知识模块(压缩的 KV 缓存、适配器层、外部记忆存储),让通用模型在不动核心权重的情况下实现专业化。共同的论点是:你可以获得有意义的压缩(不只是检索),同时把稳定性-可塑性的权衡控制在可管理范围内,因为学习是隔离的,而不是分散在整个参数空间。8B 模型配上合适的模块,可以在目标任务上匹配远大模型的表现。优势是可组合性:模块可以和现有 Transformer 架构即插即用,可以独立交换或更新,实验成本远低于重训。 RL 和反馈循环:从信号中学习。另一些团队押注的是,部署后学习最丰富的信号已经存在于部署循环本身——用户纠正、任务成败、来自真实世界结果的奖励信号。核心理念是模型应该把每次交互都当作潜在的训练信号,而不只是推理请求。这和人类在工作中进步的方式高度类似:干活、拿到反馈、内化哪些方法有效。工程挑战在于把稀疏、嘈杂、有时带有对抗性的反馈转化为稳定的权重更新,同时不灾难性遗忘。但一个真正能从部署中学习的模型,会以上下文系统做不到的方式产生复利价值。 以数据为中心:从正确的信号中学习。一个相关但有区别的赌注是,瓶颈不在学习算法,而在训练数据和周边系统。这些团队专注于筛选、生成或合成正确的数据来驱动持续更新:前提是一个有高质量、结构良好的学习信号的模型,只需要少得多的梯度步就能有意义地改进。这和反馈循环公司自然衔接,但强调的是上游问题:模型能不能学是一回事,它应该从什么学、学到什么程度是另一回事。 新架构:从底层设计学习能力。最激进的赌注认为 Transformer 架构本身就是瓶颈,持续学习需要从根本上不同的计算原语:具备连续时间动态和内建记忆机制的架构。这里的论点是结构性的:如果你想要一个持续学习的系统,你应该把学习机制嵌入底层基础架构。 图注:持续学习创业公司版图 所有主要实验室也在这些类别中积极布局。有的在探索更好的上下文管理和思维链推理,有的在试验外部记忆模块或 sleep-time 计算管线,还有几家隐身公司在追求新架构。这个领域足够早期,没有哪种方法已经胜出,而且考虑到用例的广泛性,也不应该只有一种赢家。 为什么朴素的权重更新会失败 在生产环境中更新模型参数,会引发一连串目前在大规模上尚未解决的失败模式。 图注:朴素权重更新的失败模式 工程问题已有充分记录。灾难性遗忘意味着对新数据足够敏感以学习的模型,会摧毁已有的表征——稳定性-可塑性困境。时间解耦是指不变规则和可变状态被压缩进了同一组权重,更新一个就会损坏另一个。逻辑整合的失败是因为事实更新不会传播到其推论:更改局限在 token 序列层面,不是语义概念层面。遗忘(unlearning)仍然不可能:不存在一个可微分的减法操作,因此虚假或有毒知识没有精确的手术切除方案。 还有第二类问题被较少关注。当前训练和部署的分离不只是工程上的便利,它是安全性、可审计性和治理的边界。打开这个边界,多件事会同时出问题。安全对齐可能不可预测地退化:即便是在良性数据上的窄范围微调也可能产生广泛的失调行为。 持续更新创造了一个数据投毒的攻击面——一种缓慢、持久的提示注入版本,但它活在权重里。可审计性崩塌,因为一个持续更新的模型是一个移动靶,无法做版本控制、回归测试或一次性认证。当用户交互被压缩进参数时,隐私风险加剧,敏感信息被烘焙进表征,比检索上下文中的信息更难过滤。 这些是开放问题,不是根本性的不可能。解决它们和解决核心架构挑战一样,是持续学习研究议程的一部分。 从「记忆碎片」到真正的记忆 Leonard 在《记忆碎片》中的悲剧不在于他无法运转——在任何一个场景中他都足智多谋,甚至堪称出色。他的悲剧在于他永远无法复利。每一次经历都停留在外部——一张拍立得、一个纹身、一张别人笔迹的便条。他能检索,但他无法压缩新知识。 当 Leonard 在这个自我建构的迷宫中穿行时,真实和信念之间的界限开始模糊。他的病症不只是剥夺了他的记忆;它迫使他不断重建意义,让他同时成为自己故事中的侦探和不可靠叙述者。 今天的 AI 运行在同样的约束下。我们构建了非常强大的检索系统:更长的上下文窗口、更智能的外壳、协调的多智能体群,而且它们管用。但检索不等于学习。一个能查到任何事实的系统没有被迫去寻找结构。它没有被迫去泛化。让训练如此强大的有损压缩——把原始数据转化为可迁移表征的机制——恰恰是我们在部署那一刻就关掉的东西。 前进的路径很可能不是一个单一突破,而是一个分层系统。上下文学习仍将是第一道适应防线:它是原生的、经过验证的、在不断改进的。模块机制可以处理个性化和领域专业化的中间地带。 但对于那些真正困难的问题——发现、对抗适应、无法用文字表达的隐性知识——我们可能需要让模型在训练之后继续把经验压缩进参数。这意味着稀疏架构、元学习目标和自我改进循环的进步。它可能还需要我们重新定义「模型」的含义:不是一组固定的权重,而是一个进化中的系统,包含它的记忆、它的更新算法,以及它从自身经验中抽象的能力。 档案柜越来越大。但再大的档案柜还是档案柜。突破在于让模型在部署后做训练时让它强大的那件事:压缩、抽象、学习。我们站在从失忆模型到拥有一丝经验之光的模型的转折点上。否则,我们会困在自己的《记忆碎片》里。
0
0
0
0
GateUser-bd883c58

GateUser-bd883c58

04-24 06:07
本报(chinatimes.net.cn)记者何一华 李未来 北京报道 霍尔木兹海峡通航危机除了导致国际原油价格大涨,也让非常小众的化工产品价格出现大幅波动。 今年以来溴素价格稳中上行,进入3月后,溴素价格走势坐上了火箭。生意社数据显示,3月8日溴素报价还是39700元/吨,到了3月22日,价格已经飙升至51000元/吨,4月3日,溴素报价已经变更为70200元/吨。 资本市场自然不会错过这轮行情,溴素概念股频频拉升,截至4月3日收盘,苏利股份(603585.SH)6天3板,山东海化(000822.SZ)、鲁北化工(600727.SH)等涨幅靠前。 记者注意到,溴素作为小众化学产品产能较小,并不是上市公司的主营业务,溴素价格涨价又能否带动相关公司业绩增长? 滨化股份(601678.SH)董秘办工作人员告诉《华夏时报》记者,公司溴素产能为5000多吨,营收占比低,但是单价大幅波动时仍会对公司业绩产生一定影响。另外一家上市公司工作人员则表示,对小公司来说增加几千万利润还不错,但是对大公司来说业绩提升作用有限。 **海外供应受阻** 2026年1—3月,国内卤水溴素生产企业停产限产,海水溴素企业受气温偏低影响,开工负荷处于低位,生产企业库存压力不大,持货方低价惜售,市场价格稳中上行。 生意社数据显示,2026年1月3日,溴素报价为35000元/吨,到了1月20日,报价变为38600元/吨,2月6日,溴素报价升至41600元/吨,此后溴素报价趋于平稳,2月23日报价仍为41600元/吨,并于3月4日回落至39700元/吨。此后溴素价格一路上涨至4月3日的70200元/吨。 卓创资讯溴素分析师赵倩倩告诉《华夏时报》记者,3月以来溴素市场价格上涨主要是供应面驱动,国内溴素生产企业产量逐渐提升,受中东地缘局势影响,国外溴素货源供应减少,船运周期延长,进口货源无法及时供应,国内总供应量减少,卖方捂盘惜售,报盘探涨情绪持续浓厚,市场价格强势上行。 银河证券指出,中东地区地缘冲突升级,一方面不排除以色列部分溴素生产装置阶段性降负或停产进而导致溴素出现供应缺口的可能;另一方面,以色列、约旦溴素出口的物流成本将显著上涨,溴素运输周期也存在较大不确定性,溴素价格中枢有望随之抬升。 据悉,以色列和约旦是全球两大溴素主产国。隆众资讯数据,以色列、约旦溴素产能在全球占比分别为33%、19%。我国是全球最大的溴素消费国,但溴素进口依赖度较高,以色列、约旦是我国最主要的溴素进口国。海关总署数据,2025年我国分别自以色列、约旦进口溴素3.5、1.4万吨,合计约占总进口量的64.7%。 赵倩倩向记者解释,全球溴素行业集中度较高,其中以色列、约旦、美国合计产能占全球总产能的60%以上,中国产能约15万吨左右。以色列、约旦依托死海周边丰富的卤水资源优势,死海卤水中溴素含量高,产能约占全球总产能的40%。 记者了解到,2026年1月和2月溴素价格的上涨也和海外产能有关。根据有关报道,全球最大生产商以色列化工(ICL)自2025年以来便减少了溴素出口,转而提升其下游溴化物产品产量。 中国另外一个溴素进口大国则遭遇意外天灾。1月21日,约旦南部遭遇大雨引发洪水,导致全球第二大溴素生产基地约旦溴业公司(JBC)的供应中断。该公司年产10万吨溴素,占全球总产能的13%—14%。 **产能将逐步回升** 记者注意到,虽然价格出现大涨,但是溴素总体产能较小,在上市公司中营收占比较低。 亚钾国际2025年半年报显示,公司参股的亚洲溴业拥有2.5万吨/年的溴素产能装置,2025年力争进一步扩建至5万吨/年,但其氯化钾收入34.64亿元,占比达到97.65%;卤水收入4722万元,占比1.33%;其他收入3631万元,占比1.02%。 山东海化作为国内地下卤水提溴龙头,产能在1万吨左右,2025年营业收入为47.45亿元,溴素营收仅有2.007亿元,占比4.23%;鲁北化工溴素产能在5000吨左右,2025年溴素产量为3245吨,销量为3117吨。公司2025年营收整体为50.89亿元,溴素营收为7381万元,不过毛利率比较高,达到52.91%。 鲁北化工董秘办工作人员告诉记者,毛利率高一方面是生产成本相对较低,另一方面销售价格较高;价格高源于下游需求稳健,供给端难以快速跟上。“溴素下游主要用于溴系阻燃剂、制药等领域,需求稳定。” 该工作人员进一步表示,溴素生产以海水提溴、地下卤水提溴、矿岩提溴为主,海水提溴受溴素浓度影响,仅渤海沿岸等特定沿海区域可开展,南方沿海多不具备条件。而地下卤水开采受国家严控,也无法无限制开采。 对于近期溴素价格上涨,该工作人员坦言,3月以来上涨中东冲突物流运输受限,进口受阻导致国内短期供应紧张有关。但也有季节性因素,“冬季溴素蒸发浓度不足,多处于停产状态,产量小,每年该时段价格均会有所上涨,‘五一’后产量逐渐回升,价格或逐步回落。” 赵倩倩也给出类似的观点。“随着气温回升推动场内海水溴素产量增加,带动行业开工率进一步提升,国内市场溴素供应逐渐增加,前期受环保检查停产企业,4月份或有陆续复工可能,多关注恢复生产后产量情况。” 此外,赵倩倩认为,4月份需持续关注下游用户接货心态,高端价格向下传导仍需时间,若传导尚可,对市场为利好驱动,若传导不畅,市场价格或高位回调,然具体拐点出现在哪一时刻,还需持续关注。 至于溴素价格对下游的影响,赵倩倩表示,溴素价格上涨导致下游生产企业成本压力较大,部分产品跟随溴素价格上涨,然高端价格向下传导困难,买方多谨慎观望,视订单生产情况刚需采购。 责任编辑:李未来 主编:张豫宁
0
0
0
0
DeepFlowTech

DeepFlowTech

04-24 03:43
作者: Malika Aubakirova、Matt Bornstein 编译: 深潮 TechFlow 深潮导读: 大语言模型训练完就被「冻住」了,部署后只能靠上下文窗口、RAG 等外部补丁维持运转,本质上和《记忆碎片》里的失忆症患者一样——能检索,但无法真正学到新东西。a16z 两位合伙人系统梳理了「持续学习」这一前沿研究方向,从上下文、模块到权重更新三条路径,拆解了这个可能重新定义 AI 能力天花板的技术赛道。 在克里斯托弗·诺兰的《记忆碎片》(Memento)里,主角 Leonard Shelby 活在一个破碎的当下。脑损伤让他患上了顺行性遗忘症,无法形成新记忆。每隔几分钟,他的世界就重置一次,被困在永恒的「此刻」,不记得刚才发生了什么,也不知道接下来会怎样。为了活下去,他在身上纹字、拍拍立得,靠这些外部道具来替代大脑无法完成的记忆功能。 大语言模型也活在类似的永恒当下。训练结束后,海量知识被冻结在参数里,模型无法形成新记忆,无法根据新经验更新自己的参数。为了弥补这个缺陷,我们给它搭了一堆脚手架:聊天历史充当短期便签,检索系统当外部笔记本,系统提示词就像身上的纹身。但模型本身,从来没有真正内化过这些新信息。 越来越多的研究者认为,这样不够。上下文学习(ICL)能解决的问题,前提是答案(或答案的碎片)已经存在于世界的某个角落。但对于那些需要真正发现的问题(比如全新的数学证明),对抗性场景(比如安全攻防),或者那些太隐性、无法用语言表达的知识,有充分的理由认为:模型需要一种方式,在部署之后把新知识和经验直接写入参数。 上下文学习是临时的。真正的学习需要压缩。在我们允许模型持续压缩之前,可能都困在《记忆碎片》的永恒当下里。反过来说,如果我们能训练模型学会自己的记忆架构,而不是依赖外挂的定制工具,可能会解锁一个全新的 scaling 维度。 这个研究领域叫持续学习(continual learning)。这个概念并不新(参见 McCloskey 和 Cohen 1989 年的论文),但我们认为它是当前 AI 领域最重要的研究方向之一。过去两三年模型能力的爆发式增长,让模型「已知」和「能知」之间的鸿沟越来越明显。这篇文章的目的是分享我们从该领域顶级研究者那里学到的东西,帮助厘清持续学习的不同路径,并推动这个话题在创业生态中的发展。 注:这篇文章的成型得益于与一群优秀的研究者、博士生和创业者的深度交流,他们慷慨地与我们分享了自己在持续学习领域的工作和见解。从理论基础到部署后学习的工程现实,他们的洞见让这篇文章比我们独自撰写的要扎实得多。感谢你们贡献的时间和想法! 先聊上下文 在为参数级学习(即更新模型权重的学习)辩护之前,有必要承认一个事实:上下文学习确实管用。而且有一种很有力的论证认为它会继续赢下去。 Transformer 的本质是基于序列的条件化下一个 token 预测器。给它正确的序列,你就能得到令人惊讶的丰富行为,根本不需要碰权重。这就是为什么上下文管理、提示工程、指令微调和少样本示例这些方法如此强大。智能封装在静态参数里,而表现出来的能力随着你喂进窗口的内容剧烈变化。 Cursor 最近关于自主编程智能体 scaling 的深度文章就是一个好例子:模型权重是固定的,真正让系统跑起来的是对上下文的精心编排——放什么进去、什么时候做摘要、如何在数小时的自主运行中维持连贯状态。 OpenClaw 是另一个好例子。它爆火不是因为有特殊的模型权限(底层模型所有人都能用),而是因为它把上下文和工具极其高效地转化成了工作状态:追踪你在做什么、结构化中间产物、决定什么时候重新注入提示词、维持对之前工作的持久记忆。OpenClaw 把智能体的「外壳设计」提升到了一个独立学科的高度。 当提示工程最初出现时,很多研究者对「只靠提示词」能成为正经接口这件事持怀疑态度。它看起来像个 hack。但它是 Transformer 架构的原生产物,不需要重新训练,而且随着模型进步自动升级。模型变强,提示就变强。「简陋但原生」的接口往往能赢,因为它直接耦合到底层系统,而不是和它对着干。到目前为止,LLM 的发展轨迹正是如此。 状态空间模型:上下文的类固醇版 当主流工作流从原始 LLM 调用转向智能体循环时,上下文学习模型面临的压力越来越大。过去,上下文窗口被完全填满的情况相对少见。这通常发生在 LLM 被要求完成一长串离散任务时,应用层可以用比较直接的方式裁剪和压缩聊天历史。但对智能体来说,一个任务就可能吃掉总可用上下文的很大一部分。智能体循环的每一步都依赖于前序迭代传递的上下文。而且它们经常在 20 到 100 步之后失败,因为「断了线」:上下文被填满,连贯性退化,无法收敛。 因此,主要 AI 实验室现在投入了大量资源(即大规模训练运行)来开发超长上下文窗口的模型。这是一条自然的路径,因为它建立在已经有效的方法(上下文学习)之上,并且与行业向推理时计算转移的大趋势契合。最常见的架构是在普通注意力头之间穿插固定记忆层,即状态空间模型(SSM)和线性注意力变体(下文统称为 SSM)。SSM 在长上下文场景下提供了根本性更好的 scaling 曲线。 图注:SSM 与传统注意力机制的 scaling 对比 目标是帮助智能体将连贯运行的步数提升几个数量级,从大约 20 步到大约 20,000 步,同时不丢失传统 Transformer 所提供的广泛技能和知识。如果成功,这对长时间运行的智能体来说是重大突破。你甚至可以把这种方法看作一种持续学习的形式:虽然没有更新模型权重,但引入了一个几乎不需要重置的外部记忆层。 所以,这些非参数化方法是真实的、强大的。任何对持续学习的评估都必须从这里开始。问题不在于今天的上下文系统有没有用,它确实有用。问题是:我们是否已经看到了天花板,新的方法能否带我们走得更远。 上下文遗漏了什么:「档案柜谬误」 「AGI 和预训练发生的事情是,在某种意义上它们超调了……人类不是 AGI。是的,人类确实有一个技能基础,但人类缺少大量知识。我们依赖的是持续学习。如果我造出一个超级聪明的 15 岁少年,他什么都不知道。一个好学生,非常渴望学习。你可以说,去当程序员,去当医生。部署本身就会涉及某种学习、试错的过程。这是一个过程,不是把成品直接扔出去。——Ilya Sutskever」 想象一个存储空间无限的系统。世界上最大的档案柜,每个事实都被完美索引,即时可检索。它能查到任何东西。它学到了吗? 没有。它从来没有被迫做压缩。 这是我们论证的核心,它引用了 Ilya Sutskever 之前提出的一个观点:LLM 本质上是压缩算法。在训练过程中,它们把互联网压缩成参数。压缩是有损的,而正是这种有损性让它变得强大。压缩迫使模型寻找结构、进行泛化、构建能跨上下文迁移的表征。一个死记硬背所有训练样本的模型,不如一个提取出底层规律的模型。有损压缩本身就是学习。 讽刺的是,让 LLM 在训练期间如此强大的机制(把原始数据压缩成紧凑、可迁移的表征),恰恰是我们在部署后拒绝让它们继续做的事。我们在发布那一刻停止了压缩,用外部记忆来替代。当然,大多数智能体外壳都会以某种定制方式压缩上下文。但苦涩教训(bitter lesson)难道不是告诉我们,模型本身应该学会这种压缩,直接地、大规模地? Yu Sun 分享了一个例子来说明这场辩论:数学。看看费马大定理。350 多年来,没有数学家能证明它,不是因为他们缺少正确的文献资料,而是因为解法高度新颖。已有数学知识和最终答案之间的概念距离太大了。Andrew Wiles 在 1990 年代终于攻克它时,他花了七年近乎与世隔绝地工作,不得不发明全新的技术来抵达答案。他的证明依赖于成功桥接两个不同的数学分支:椭圆曲线和模形式。虽然 Ken Ribet 此前已经证明如果能建立这个连接就能自动解决费马大定理,但在 Wiles 之前,没有人拥有能实际构建这座桥的理论工具。Grigori Perelman 对庞加莱猜想的证明也可以做类似的论证。 核心问题是: 这些例子是否证明 LLM 缺少了某种东西,某种更新先验、进行真正创造性思考的能力?还是这个故事恰好证明了相反的结论——所有人类知识只是可供训练和重组的数据,Wiles 和 Perelman 不过展示了 LLM 在更大规模上也能做到的事? 这个问题是经验性的,答案尚不确定。但我们确实知道,有很多类别的问题上下文学习今天会失败,而参数级学习可能有用。例如: 图注:上下文学习失败、参数学习可能胜出的问题类别 更重要的是,上下文学习只能处理能用语言表达的东西,而权重可以编码提示词无法用文字传达的概念。有些模式维度太高、太隐性、太深层结构化,放不进上下文。比如,医学扫描中区分良性伪影和肿瘤的视觉纹理,或者定义一个说话人独特节奏的音频微波动,这些模式不容易被分解成精确的词汇。语言只能近似它们。再长的提示词也传递不了这些东西;这类知识只能存活在权重里。它们活在学习表征的潜空间中,不是文字。无论上下文窗口增长到多大,总有一些知识是文本无法描述的,只能被参数承载。 这也许能解释为什么显式的「机器人记住你」功能(比如 ChatGPT 的 memory)经常让用户感到不适而非惊喜。用户真正想要的不是「回忆」,而是「能力」。一个已经内化了你行为模式的模型可以泛化到新场景;一个只是回忆你历史记录的模型做不到。「这是你上次回复这封邮件时写的内容」(逐字复述)和「我已经足够理解你的思维方式,能预判你需要什么」之间的差距,就是检索和学习的差距。 持续学习入门 持续学习有多种路径。分界线不在于「有没有记忆功能」,而在于:压缩发生在哪里? 这些路径沿一个光谱分布,从无压缩(纯检索,权重冻结),到完全内部压缩(权重级学习,模型变得更聪明),中间还有一个重要地带(模块)。 图注:持续学习的三种路径——上下文、模块、权重 上下文 在上下文这端,团队构建更智能的检索管线、智能体外壳和提示词编排。这是最成熟的类别:基础设施经过验证,部署路径清晰。限制在于深度:上下文长度。 一个值得注意的新方向:多智能体架构作为上下文本身的 scaling 策略。如果单个模型被限制在 128K token 窗口内,一组协调的智能体群——每个持有自己的上下文、专注于问题的一个切片、互相通信结果——可以在整体上近似无限工作记忆。每个智能体在自己的窗口内做上下文学习;系统做聚合。Karpathy 最近的 autoresearch 项目和 Cursor 构建网页浏览器的例子是早期案例。这是纯粹的非参数化方法(不改权重),但它极大地抬高了上下文系统能做到的上限。 模块 在模块空间里,团队构建可插拔的知识模块(压缩的 KV 缓存、适配器层、外部记忆存储),让通用模型在不重新训练的情况下实现专业化。一个 8B 模型加上合适的模块,可以在目标任务上匹配 109B 模型的表现,内存占用只是其零头。吸引力在于它能兼容现有的 Transformer 基础设施。 权重 在权重更新这端,研究者在追求真正的参数级学习:只更新相关参数片段的稀疏记忆层、从反馈中优化模型的强化学习循环、在推理时将上下文压缩进权重的测试时训练(test-time training)。这些是最深层的方法,也是最难部署的,但它们真正允许模型完全内化新信息或新技能。 参数更新的具体机制有多种。列举几个研究方向: 图注:权重级学习的研究方向概览 权重级研究涵盖了多条并行路线。正则化和权重空间方法历史最久:EWC(Kirkpatrick et al., 2017)根据参数对先前任务的重要性来惩罚参数变化;权重插值(Kozal et al., 2024)在参数空间中混合新旧权重配置,但两者在大规模上都比较脆弱。测试时训练由 Sun et al.(2020)开创,后来发展为架构原语(TTT 层、TTT-E2E、TTT-Discover),思路截然不同:在测试数据上做梯度下降,在需要的那一刻把新信息压缩进参数。元学习问的是:我们能否训练出懂得「如何学习」的模型?从 MAML 的少样本友好参数初始化(Finn et al., 2017)到 Behrouz et al. 的嵌套学习(Nested Learning, 2025),后者将模型结构化为一个分层优化问题,不同时间尺度上运行快速适配和慢速更新的模块,灵感来自生物记忆巩固。 蒸馏通过让学生模型匹配冻结的教师检查点来保留先前任务的知识。LoRD(Liu et al., 2025)通过同时裁剪模型和回放缓冲区,让蒸馏高效到可以持续运行。自蒸馏(SDFT, Shenfeld et al., 2026)翻转了来源,用模型自己在专家条件下的输出作为训练信号,绕过了序列微调的灾难性遗忘。递归自我改进运作在类似的思路上:STaR(Zelikman et al., 2022)从自生成的推理链中引导推理能力;AlphaEvolve(DeepMind, 2025)发现了几十年未被改进的算法优化;Silver 和 Sutton 的「经验时代」(2025)把智能体学习定义为一个永不停止的持续经验流。 这些研究方向正在汇聚。TTT-Discover 已经融合了测试时训练和 RL 驱动的探索。HOPE 把快慢学习循环嵌套在单一架构内。SDFT 把蒸馏变成了自我改进的基本操作。列与列之间的边界正在模糊。下一代持续学习系统很可能会组合多种策略:用正则化来稳定,用元学习来加速,用自我改进来复利。一批越来越多的创业公司正在押注这个技术栈的不同层级。 持续学习创业版图 光谱的非参数端最为人熟知。外壳公司(Letta、mem0、Subconscious)构建编排层和脚手架,管理放进上下文窗口的内容。外部存储和 RAG 基础设施(如 Pinecone、xmemory)提供检索骨干。数据存在,挑战是在正确的时间把正确的切片放到模型面前。随着上下文窗口扩展,这些公司的设计空间也随之增长,特别是在外壳端,一波新的创业公司正在涌现来管理日益复杂的上下文策略。 参数端更早期、也更多元。这里的公司在尝试某种版本的「部署后压缩」,让模型在权重中内化新信息。路径大致可以分成几种不同的赌注,关于模型在发布后应该「怎样」学习。 部分压缩:不重训也能学。 一些团队在构建可插拔的知识模块(压缩的 KV 缓存、适配器层、外部记忆存储),让通用模型在不动核心权重的情况下实现专业化。共同的论点是:你可以获得有意义的压缩(不只是检索),同时把稳定性-可塑性的权衡控制在可管理范围内,因为学习是隔离的,而不是分散在整个参数空间。8B 模型配上合适的模块,可以在目标任务上匹配远大模型的表现。优势是可组合性:模块可以和现有 Transformer 架构即插即用,可以独立交换或更新,实验成本远低于重训。 RL 和反馈循环:从信号中学习。 另一些团队押注的是,部署后学习最丰富的信号已经存在于部署循环本身——用户纠正、任务成败、来自真实世界结果的奖励信号。核心理念是模型应该把每次交互都当作潜在的训练信号,而不只是推理请求。这和人类在工作中进步的方式高度类似:干活、拿到反馈、内化哪些方法有效。工程挑战在于把稀疏、嘈杂、有时带有对抗性的反馈转化为稳定的权重更新,同时不灾难性遗忘。但一个真正能从部署中学习的模型,会以上下文系统做不到的方式产生复利价值。 以数据为中心:从正确的信号中学习。 一个相关但有区别的赌注是,瓶颈不在学习算法,而在训练数据和周边系统。这些团队专注于筛选、生成或合成正确的数据来驱动持续更新:前提是一个有高质量、结构良好的学习信号的模型,只需要少得多的梯度步就能有意义地改进。这和反馈循环公司自然衔接,但强调的是上游问题:模型能不能学是一回事,它应该从什么学、学到什么程度是另一回事。 新架构:从底层设计学习能力。 最激进的赌注认为 Transformer 架构本身就是瓶颈,持续学习需要从根本上不同的计算原语:具备连续时间动态和内建记忆机制的架构。这里的论点是结构性的:如果你想要一个持续学习的系统,你应该把学习机制嵌入底层基础架构。 图注:持续学习创业公司版图 所有主要实验室也在这些类别中积极布局。有的在探索更好的上下文管理和思维链推理,有的在试验外部记忆模块或 sleep-time 计算管线,还有几家隐身公司在追求新架构。这个领域足够早期,没有哪种方法已经胜出,而且考虑到用例的广泛性,也不应该只有一种赢家。 为什么朴素的权重更新会失败 在生产环境中更新模型参数,会引发一连串目前在大规模上尚未解决的失败模式。 图注:朴素权重更新的失败模式 工程问题已有充分记录。灾难性遗忘意味着对新数据足够敏感以学习的模型,会摧毁已有的表征——稳定性-可塑性困境。时间解耦是指不变规则和可变状态被压缩进了同一组权重,更新一个就会损坏另一个。逻辑整合的失败是因为事实更新不会传播到其推论:更改局限在 token 序列层面,不是语义概念层面。遗忘(unlearning)仍然不可能:不存在一个可微分的减法操作,因此虚假或有毒知识没有精确的手术切除方案。 还有第二类问题被较少关注。当前训练和部署的分离不只是工程上的便利,它是安全性、可审计性和治理的边界。打开这个边界,多件事会同时出问题。安全对齐可能不可预测地退化:即便是在良性数据上的窄范围微调也可能产生广泛的失调行为。持续更新创造了一个数据投毒的攻击面——一种缓慢、持久的提示注入版本,但它活在权重里。可审计性崩塌,因为一个持续更新的模型是一个移动靶,无法做版本控制、回归测试或一次性认证。当用户交互被压缩进参数时,隐私风险加剧,敏感信息被烘焙进表征,比检索上下文中的信息更难过滤。 这些是开放问题,不是根本性的不可能。解决它们和解决核心架构挑战一样,是持续学习研究议程的一部分。 从「记忆碎片」到真正的记忆 Leonard 在《记忆碎片》中的悲剧不在于他无法运转——在任何一个场景中他都足智多谋,甚至堪称出色。他的悲剧在于他永远无法复利。每一次经历都停留在外部——一张拍立得、一个纹身、一张别人笔迹的便条。他能检索,但他无法压缩新知识。 当 Leonard 在这个自我建构的迷宫中穿行时,真实和信念之间的界限开始模糊。他的病症不只是剥夺了他的记忆;它迫使他不断重建意义,让他同时成为自己故事中的侦探和不可靠叙述者。 今天的 AI 运行在同样的约束下。我们构建了非常强大的检索系统:更长的上下文窗口、更智能的外壳、协调的多智能体群,而且它们管用。但检索不等于学习。一个能查到任何事实的系统没有被迫去寻找结构。它没有被迫去泛化。让训练如此强大的有损压缩——把原始数据转化为可迁移表征的机制——恰恰是我们在部署那一刻就关掉的东西。 前进的路径很可能不是一个单一突破,而是一个分层系统。上下文学习仍将是第一道适应防线:它是原生的、经过验证的、在不断改进的。模块机制可以处理个性化和领域专业化的中间地带。但对于那些真正困难的问题——发现、对抗适应、无法用文字表达的隐性知识——我们可能需要让模型在训练之后继续把经验压缩进参数。这意味着稀疏架构、元学习目标和自我改进循环的进步。它可能还需要我们重新定义「模型」的含义:不是一组固定的权重,而是一个进化中的系统,包含它的记忆、它的更新算法,以及它从自身经验中抽象的能力。 档案柜越来越大。但再大的档案柜还是档案柜。突破在于让模型在部署后做训练时让它强大的那件事:压缩、抽象、学习。我们站在从失忆模型到拥有一丝经验之光的模型的转折点上。否则,我们会困在自己的《记忆碎片》里。
0
0
0
0