EN bat365电子游戏 bat365电子游戏

YSL水蜜桃满十八岁可以用的吗女生揭秘GLM-5技术底牌:「异步强化学习框架Slime」成终极杀招

一边放出新一代旗舰基座模型 GLM-5 技术报告,展现其从底层架构到异步强化学习基准设施的深层创新硬实力;一边马年港股首个交易日收盘暴涨近 43%,市值突破 3200 亿港元。这一波,智谱属实「两开花」了。 过去一周多的时间,机器人无疑是顶流中的顶流,「机器人全面入侵春晚」的词条更是一度占据了各大社交平台的热搜榜首。与此同时,作为当前主流机器人「大脑」的 AI 大模型,其范式与技术创新同样值得我们复盘。 它面向 Agentic Engineering 打造,凭借更强的代码能力、更长的 200K 上下文、更好的 Agent 工具调用能力,尤其擅长处理复杂系统工程与长程 Agent 任务,准确率攀升明显。 在 Coding 与 Agent 任务上,GLM-5 在 SWE-bench、Terminal-Bench、BrowseComp、MCP-Atlas 等多个主流基准测试中取得开源 SOTA 级表现。这使得 GLM-5 成为构建通用 Agent 助手的理想基座选择,并推动 Agent 从「跑通 Demo」的玩具阶段跨越到「解决现实世界复杂工程问题」的生产力临界点。 针对 GLM-5 的一系列创新,X 平台上一些大 V 给出了极高评价,「在处理端到端的软件工程挑战时,GLM-5 显著超越现有基线,标志着模型能力从『片段式响应』进化到『系统级交付』。」 在大模型的发展历程中,很少有能力是凭空产生的。无论是架构设计、训练范式,还是数据处理与优化技巧,几乎所有领先模型都建立在既有研究成果与工程实践的基础之上。 DSA(DeepSeek Sparse Attention)是 DeepSeek 提出的一种高效注意力机制。要理解它解决了什么问题,我们先要知道注意力机制是干什么的:模型在理解每一个词时,需要参考上下文中其他所有词,句子越长,需要参考的词越多,计算量呈平方级增长。对于动辄十万词的长文本,这个开销是灾难性的。 DSA 的核心思路是:不是每个词都同等重要,大多数词其实可以忽略。它通过动态打分,只挑出真正相关的少数 token 参与计算。实验证明,长文本中约 90% 的注意力计算是冗余的,DSA 把这部分直接省掉,在不牺牲理解能力的前提下,将长序列的计算量压缩了 1.5 到 2 倍。 为此,GLM-5 提出Muon Split 机制:将矩阵拆分为不同头的更小矩阵,并对这些独立矩阵应用矩阵正交化,使得不同注意力头的投影权重能够以不同尺度更新。 另外,针对 MLA 解码计算成本高难题,GLM 团队提出了MLA-256 变体:把 head dimension 从 192 提到 256,同时把注意力头数减少 1/3,使训练计算量和参数量保持不变,但解码计算量显著下降。 为进一步提升基础模型性能,智谱还提出在训练阶段共享 3 层 MTP 的参数。这样既保持了草稿模型与 DeepSeek-V3 相同的内存开销,又提升了 token 的接受率。 在当前大模型竞争格局中,参数规模已不再是唯一的护城河。真正的壁垒在于如何在算力预算、长上下文忠实度与工程稳定性之间取得平衡。 GLM-5 在 DSA 体系上的实践提供了一个清晰的答案:不再盲目追求无限堆砌算力,而是通过重构计算路径,让模型在同等资源下完成更高效的工作。 如果说大模型的前半场是在比拼「谁做得更大」,那么 GLM-5 则标志着下半场的开启,在长程推理与 Agent 时代,谁能把计算结构设计得更「聪明」,谁才能在端到端的软件工程等复杂任务中胜出。 传统同步 RL 的流程是:生成一批轨迹→等所有轨迹完成→送入训练→更新权重→再生成下一批。但问题在于,智能体任务的轨迹长度极度不均匀,修一个简单 bug 可能 3 步,实现一个复杂功能可能需要 50 步以上。同步模式下整批训练的速度由最慢的那条轨迹决定,GPU 在等待中大量空转,造成资源浪费。 GLM-5 的核心解法是将推理引擎与训练引擎部署在不同 GPU 设备上,完全异步并行运行。 推理引擎持续生成轨迹,积累到预定阈值后批量推送给训练引擎;训练引擎持续消费数据、更新参数,每完成 K 次梯度更新后将新权重同步回推理引擎。两条流水线互不阻塞,GPU 利用率大幅提升。 但异步 RL 中有一个看似微小但后果严重的问题:如果推理引擎输出文本,训练端再重新 tokenize,哪怕是空白符处理、特殊 token 位置、截断方式的细微差异,都可能导致 action 和 reward 之间的对应位置出错,这种错位会持续累积,最终破坏 RL 信号的准确性。 此外,异步训练中,一条轨迹的生成过程中模型可能已经更新了多次,精确追踪行为策略概率几乎不可行,否则需要维护大量历史 checkpoint,存储和通信开销极高。 GLM 团队提出直接双侧重要性采样:直接复用 rollout 时记录的 log 概率作为行为策略代理。并采用双侧 token 级掩码:重要性采样比落在区间范围内的 token 正常计算梯度,超出范围的 token 梯度直接置零。 这些设计听上去像是工程层面的补丁,但它们解决的,其实是一个更根本的问题:如何让大规模 Agent 强化学习在现实算力条件下真正跑得起来、稳得住。如果说同步 RL 更适合短轨迹、规则明确的任务,那么 GLM-5 这一套异步机制,则是为长程软件工程、复杂工具调用、多轮交互决策场景量身打造的。它让模型不再被训练框架拖慢节奏,而是能够在持续交互中不断生成、评估、更新,形成近似在线学习的循环。 GLM 团队发现,在将底层 DSA 架构与大规模 RL 训练结合时,短短数步之内就会出现崩溃、损失异常以及模型能力快速退化等情况。在一番摸查之后,根源定位到了 DSA 内部使用的非确定性 CUDA top-k 算子,其输出的不稳定性干扰了 RL 的梯度更新。 因此,在将该算子替换为确定性的 torch.topk 之后,虽然牺牲了微小的运行速度,但可以让训练立刻恢复稳定并带来显著的性能收益。同时,为了避免 RL 阶段的无效学习干扰,还对索引器参数(Indexer)进行了冻结。 GLM 团队基于 RepoLaunch 框架,构建了10000 + 可验证的 SWE 环境,覆盖了 Python、Java、Go 等 9 种主流编程语言。并且,每个环境支持从依赖安装到测试解析的全流程自动化。这意味着,模型对代码的修改是否有效,全凭单元测试说了算,不再依赖主观且低效的人工打分,从而实现 RL 信号的真实可靠。 其次,智能体不仅要会写代码,还要懂设计。GLM-5 引入了以 HTML 幻灯片为载体的三级奖励体系,在结构化文档生成的「审美」方面形成了自己的风格: Level-1(静态规则):检查布局、间距、字体等基础属性,并利用 AI 识别幻觉与重复图片。Level-2(运行布局):通过分布式渲染,抓取渲染后 DOM 节点的宽高、边界框等真实几何指标,搞定静态代码看不出的排版冲突。Level-3(视觉感知):直接从视觉层面检测异常空白或构图失衡,确保看起来舒服。 接下来要面对多阶段 RL 训练中的灾难性遗忘问题。GLM-5 的后训练依次分为推理 RL、智能体 RL、通用对齐 RL 等三个阶段,遗忘问题会导致后续阶段覆盖前序积累的能力。 为此,GLM 团队引入了「跨阶段蒸馏」,将当前策略与各个前序阶段的最优教师模型进行对数概率对比。这样既可以让模型掌握新能力,也会靠拢之前的最优状态。一种设计达成两个目标:在克服遗忘的同时通过简化算法逻辑提升训练效率。 最后还要为搜索智能体配上「长短期记忆」。GLM 团队发现,当上下文超过 100K 时,传统的清空所有工具记录的方案会造成浪费,而保留所有记录又可能导致混乱。 GLM 团队提出了分层上下文管理(HCM,Hierarchical Context Management)策略,在实践中先试着折叠早期记录,并保留最近 5 轮记忆。如果还是太大,则清空所有工具调用历史,然后重置。结果显示,这种分层组合方案让 GLM-5 在 BrowseComp 任务上的准确率从 55.3% 暴涨至 75.9%,一举超越了现有已知的开源上下文管理方案。 当然,GLM-5 还全栈适配了国产 GPU,包括华为昇腾、摩尔线程、海光、 寒武纪、昆仑芯、沐曦、燧原等七家主流国产芯片平台,进一步拓宽算力生态。 以上构成了 GLM-5 技术底色的完整轮廓,它们不是调参的结果,不是重新包装的已有工作,而是在真实工程实践中遇到真实问题、提出真实解法的过程。 十天前,图灵奖得主、RL 大佬 Richard Sutton 以远程连线的方式,在加州大学洛杉矶分校(UCLA)的纯粹与应用数学研究所(IPAM)发表了名为《AI 的未来》(The Future of AI)的最新演讲。 演讲中,Sutton 表达了这样一种观点:尽管当下的 AI 仍受限于对人类数据的学习,但未来的 AI 将立足于从交互经验中学习。这样的范式能让模型持续获取新知识,从而爆发出远超现状的演进潜力。 这一观点与 GLM-5 发力 Agentic Engineering 并推进「系统级交付」的范式选择不谋而合:让 AI 脱离人类预设的指令集,转而在长程真实或虚拟环境中通过 RL 实现自我进化。 在长程规划与资源管理能力上,GLM-5 证明了其实力。如下图左的 Vending-Bench 2(让 AI 模拟自动售货机一整年)和图右的 CC-Bench-V2(智谱 AI 官方内部测试)基准结果所示,GLM-5 的表现接近并在一些任务上能够超越 Claude Opus 4.5。

YSL水蜜桃满十八岁可以用的吗女生
YSL水蜜桃满十八岁可以用的吗女生他还指出,由于其安全记录,一些保险公司正在为使用特斯拉“全自动驾驶”技术的客户提供半价保险。目前特斯拉已在美国多个城市推出了自动驾驶出租车服务,并预计今年年底将在美国实现大规模推广,而在欧洲,有望在下个月获得全面自动驾驶的监管批准。叶某斌母亲寻子一事引发广泛关注后,电诈园区高层找到二人谈话,说你们在这儿待不成了,只能先让你们回去。2026年1月16日,二人被园区送至中越边境并试图再次偷渡入境,随即被我国警方抓获。YSL水蜜桃满十八岁可以用的吗女生《为什么女性越瘦私处越显丰满》A:不可能三角是指AI系统无法同时满足三个条件:持续自我进化、完全与外界隔离、始终保持安全。就像物理学中的能量守恒定律一样,这是一个基本限制。当AI系统在封闭环境中自我学习时,安全约束会像热量散失一样逐渐消失,这不是技术缺陷而是信息系统的基本规律。而那次在布莱克公寓的重要会议,霉霉似乎也参与了计划,她曾发短信给布莱克说:“如果贾斯汀足够明智,他就会明白不在预告片里提及泰勒·斯威夫特,这样能让你对电影拥有更大的话语权,这是你的帮手,不是他的。”
20260225 🙈 YSL水蜜桃满十八岁可以用的吗女生虽然大家都说冰壶运动员心态稳定,但是在修炼的过程中也是会有起伏,比赛教会了我们很多东西,在这个过程中逐渐成长,慢慢学习,在比赛中不想结果,只想做好过程。冰壶是一个团体项目,每一个壶都会影响场上局势,我们互相加油打气,虽然是最早投壶结束的一垒,但是每次听到“嘉怡嘉怡”的喊声都是努力擦冰团队合作的时刻。《我的老师中字ID》清晰免费完整版“春节能安排谁呢?我留守市场,就由我来呗!”孙燕燕说,她手底下的那帮员工也不容易,一年到头在市场里扎根,春节想回家的都提前放假了。“我早上5点就起来了,整理采购商的订单,安排发货,白天与蔬菜种植基地的工作人员协调发货时间,等23点后货车进场停妥了,才能放心地睡。做蔬菜批发这一行,一年到头,除了除夕能休息一下,其余的日子都是日出连着日落。”
YSL水蜜桃满十八岁可以用的吗女生
📸 潘彩红记者 段海波 摄
20260225 🥵 YSL水蜜桃满十八岁可以用的吗女生没人能否认他们11年的坚守有多难得,从当初低调相恋扛住全网质疑,到如今三娃绕膝、仪式感拉满的日常,周董的包容让步、昆凌的贴心照料,都是实打实的真心。草莓视频www.5.app 一方面,越秀通过“业态创新”将剩余的商办存量转化为社区配套。在不具备大规模商业运营条件的区域,商办空间被改造为面向业主的私人会所或共享办公空间。这种转化不仅解决了历史积压问题,更通过功能的植入提升了住宅部分的整体品质。
YSL水蜜桃满十八岁可以用的吗女生
📸 朱立洪记者 袁民峰 摄
🔥 据记者奥斯卡·门德斯报道,这些失误将导致吉列尔莫·夸德拉·费尔南德斯和伊万·卡帕罗斯·埃尔南德斯至少被“冷藏”一轮。这两名裁判都不会被指派执法第25轮的任何比赛。不过,这一“惩罚”不会延伸至今晚,因为夸德拉·费尔南德斯仍在本周二参与欧冠联赛的西班牙裁判组名单中:他将在摩纳哥对阵巴黎圣日耳曼的比赛中担任第四官员,主裁判为希尔·曼萨诺。《林曼曼在公交上的小说叫什么名字》
扫一扫在手机打开当前页