在将 MoE 和 Lightning Attention(闪电注意力)的激进架构变革引入基础模型底层,转化为全新的 MiniMax-01 系列模型的 5 个月后,大模型公司 MiniMax 终于更进一步,捧出了酝酿许久的自研文本推理模型 MiniMax-M1,这也是全球首个开源、大规模实现混合注意力的推理模型。 推理模型已成为新的大模型技术浪潮,拿出一款强劲的自研推理模型,是近半年里国内第一阵营的大模型公司保持自己技术身位最直接的目标。 作为推理模型,MiniMax-M1在长上下文理解能力上,是目前包括所有闭源和开源模型在内,能力全球前二的模型,且在训练和推理成本上极高的性价比。 M1 仍然延续着 MoE 架构,而在注意力机制上和强化学习算法上的创新让 M1 鲜明的区别于其他推理模型。模型总参数达到 4560 亿参数,原生支持 100 万 token 的上下文长度输入,以及目前所有模型中最长的 80k token 的输出长度。 除了在长上下文能力上的强势,M1 所展现出的在智能体工具使用(Agentic Tool Use)维度上的能力上限甚至更加让人期待。从评测基准 TAU-Bench (airline) 中的表现来看,目前 M1 已经是市面上在 Agentic Tool Use 方面能力最强的模型。 技术报告中对于 M1 的概述是,这个新的开源模型已是与 DeepSeek-R1、Qwen3-235B 并列的世界顶尖开源推理模型,这一结论是在参与了业内主流的 17 个评测基准之后得出的。在处理复杂场景时长上下文、智能体工具使用能力上的长板足够亮眼,M1 在更通用的模型性能上也已经跨入顶尖行列。 此外需要特意说明的是,M1 系列模型中的两个模型中,MiniMax-M1-40K 模型是 MiniMax-M1-80K 模型在训练时的中间阶段。而在测评基准所呈现的总体表现中,MiniMax-M1-80k 在多数基准上持续优于 MiniMax-M1-40k,这也验证了上下文窗口长度带来了模型整体性能的显著提升,而非仅仅意味着支持更长的输入。 在底层架构层面,M1 是目前唯一一个用线性注意力机制「大改」传统 Transformer 架构,从而大规模实现混合注意力的 MoE 推理模型;在算法层面,M1 提出了新的强化学习算法 CISPO。更彻底的双线创新提高了 M1 的训练效率,而训练成本的下降也非常可观。 为解放 Transformer 架构中核心的注意力机制 Softmax Attention 在计算资源消耗方面的局限性,M1 系列模型在注意力机制的架构设计方面相比传统架构的推理做了更大胆的尝试——采用混合注意力机制 Lightning Attention——来代替标准 Transformer 中使用的传统 Softmax Attention。 独特的注意力层设计让 M1 在推理时具有显著效率优势,天然有利于强化学习的高效扩展,但走到混合架构大规模强化学习的无人区,MiniMax 显然也会遇到新架构带来的挑战。 比如在混合架构的初步零强化学习(zero-RL)实验中,团队发现传统的 PPO/GRPO 算法会意外的严重损害训练性能。具体来说,与反思行为相关的关键 token——例如表示转折的 however、wait——这些低概率 token 对稳定熵和促进可扩展 RL 至关重要,但却容易在策略更新时被裁剪,难以保证这些 token 的梯度贡献,导致难以促进长 CoT 推理行为。此问题在混合架构模型中尤为突出,阻碍了强化学习的规模扩展。 为此,M1 在算法层面提出了新的强化学习算法 CISPO,意在明确避免丢弃任何 token(即使更新幅度大),同时将熵维持在合理范围以确保稳定探索。 在 zero-RL 设置下,MiniMax 团队在数学推理数据集上训练 Qwen2.5-32B-base,对比 CISPO、 字节跳动提出的 DAPO 以及 DeepSeek 提出的 GRPO 算法在 AIME 2024 上的表现。相同步数下 CISPO 显著优于 DAPO 和 GRPO;其训练效率更高,仅需 DAPO 50% 的步数即可达到同等性能。 底层架构上对于线性注意力机制的引入,以及算法层围绕 CISPO 所形成的高效 RL 框架,最终让 M1 的强化学习训练变得十分高效,进而取得了训练成本的大幅下降。 与模型一同发布的技术报告中显示,在生成长度为 10 万 Token 时,M1 的计算量仅为 Deepseek R1 的 25%,而整个 M1 的完整强化学习训练能在 512 张 H800 GPU 上仅用 3 周完成,以目前的 GPU 租赁价格计算,成本仅为 53.47 万美元。 Prompt 是这样的: 创建一个迷宫生成器和寻路可视化工具。随机生成一个迷宫,并逐步可视化 A* 算法的求解过程。使用画布和动画,使其具有视觉吸引力。 demo 里可以清晰看到,M1 在生成的网页中思路清晰的设置了代表打字速度的 WPM(words per minute)和准确度的 Accuracy 两个指标,并且体贴的让上方文字随着你的输入进程而同步变色。 这些 demo 都在指向一些通用 agent 中产品化 feature 的可能性。长上下文理解、智能体这些在模型能力产品化过程中的核心能力,恰好是 M1 模型的强势所在。这符合 MiniMax 最早以产品起势的路线,而这家公司近来在基础模型层面持续的激进探索,也以 M1 的出现为节点,在当下大模型公司们技术突破普遍降速的时候显示出后劲。 M1 的出现,背后是一条 MiniMax 从传统的稠密模型与 Transformer 架构,转向 MoE 与线性注意力机制的草蛇灰线。在 MiniMax 决定引入 MoE 与线性注意力机制的时候,在当时几乎都没有什么可以参考的对象。 Mistral AI 在 2023 年底用开源的模型 Mistral 8✖️7B 击败了当时最优秀的开源模型之一,700 亿参数的 Llama 2。2023 年夏天,MiniMax 已经在准备从稠密模型转向 MoE,投入了当时公司 80% 的算力与研发资源,在 Mistral 8✖️7B 发布的一个月后,上线了国内首个 MoE 大模型 abab 6,并且由于这是个过于新的架构,MiniMax 为 MoE 自研更适配的训练和推理框架。 MiniMax 开始投入 Linear Attention 是从 2024 年 4 月开始的,那时尚没有模型在千亿级别的参数规模层面挑战传统的 Transformer 架构。这使得 MiniMax 需要对分布式训练和推理框架进行彻底的重新设计来适配,使得模型能够在大规模 GPU 集群上高效运行,这才有了今年 1 月的 MiniMax-Text-01,这也是第一个依赖线性注意力机制大规模部署的模型。 可以说,MiniMax-Text-01 是 MiniMax 在线性注意力这件事上,为整个行业从小规模可行的共识,到 Scale up 的可行做了一次验证。而推理模型 M1,本质上又是一次基于 MiniMax-Text-01 的 scale up 和架构创新。 团队以 MiniMax-Text-01 为基座,实施 7.5 万亿 token 的定向增强预训练,将 STEM(科学/技术/工程/数学)、编程代码与复杂推理三类核心领域的数据权重提升至总语料 70%。随后通过监督微调阶段注入链式思考(CoT)机制,系统性构建模型的分步推理能力,为强化学习奠定能力基础。 最终这种激进式的创新得到了积极的验证,M1 是目前全球最先抵达 80k 上下文输出的推理模型,同时在长上下文,软件工程和 Agent 工具使用方面体现出了优势。 此前星野和 Talkie 在商业化上的优异表现,让 MiniMax 早早成为一家可以自己独立行走的大模型公司,也让外界赋予了这家公司一个「产品驱动」这样过于笼统的标签。这一定程度上忽视了 MiniMax 在模型层面上相当强悍的研发能力。 值得注意的是,MiniMax 的官方公告透露,M1 系列模型同时也拉开了为期五天的 MiniMaxWeek 的序幕,未来五天,MiniMax 会围绕文本、语音和视觉等多模态模型对外公布更多的技术进展。 与此前 MoE 的 Abab 6 模型刚出现时类似,此次发布的混合注意力机制的 M1 在底层架构层面仍然是一个「非共识」的推理模型,但也正是因为这些屡次探入模型底层架构「非共识」地带所带来的技术创新,一直在印证 MiniMax 终究是一家「模型驱动」的 AI 公司。
成人韩国三色眼影凯瑟琳研究发现,从1925年到1961年间,近800名幼童在这所“仁爱之家”中不幸夭折,其中仅有2名儿童合法地被安葬在附近的公墓,并进行了登记,另外796名儿童的遗骨竟然被扔在了化粪池里。1971年,这所机构停止运营,如今部分旧址已经被现代化建筑覆盖。莱利在热火队的地位堪称教父,虽然只有10%的股权,但得到了阿里森的充分授权和信任,所以莱利在球队日常决策和引援时说一不二,颇有教父风范。后来,他通过引入奥尼尔、培养韦德以及2010年组建三巨头,为热火夺得了三届NBA总冠军,至今仍担任热火队总裁,深受老板信任,他可能是NBA为数不多的能以小股东身份在球队翻云覆雨、执掌权柄数十年的异类。成人韩国三色眼影在床上怎么做才能让男人荷尔蒙提高在谈到为什么“六小虎”能在沈阳发展壮大时,宗润福表示:“辽沈的装备制造业有产业基础和配套优势,沈阳的人才既稳定,又具备工匠精神、研发精神。在省市区各级政府的有机组织与持续支持下,沈阳零部件与半导体装备在全国范围内都具备一定影响力。”这里插一句题外话。现在网上造谣实在猖獗,比如最近抖音上好多造谣赵本山去世,平台也不管,放任谣言传播。有人说,有些自媒体平台是造谣的受益者,这话不无道理。所以打击造谣,应该先加大对某些自媒体平台的管理力度。
20250814 💣 成人韩国三色眼影另外,值得玩味的是,2025年过去一半,在AI和具身智能领域,即将奔赴IPO的不止宇树这一家。今年4月,智谱提交了上市辅导备案;而就在本周,AI六小虎的另一家MiniMax也传出正在考虑港股IPO;而在具身智能领域,除了宇树,另一家备受关注的企业智元机器人,近期也传出IPO迹象。据媒体报道,智元机器人正在招聘“证券事务主管”和“法务总监”等职位,其中“证券事务主管”要求具备3年以上IPO实操经验,并协助推进IPO时间表及执行方案。免费观看已满十八岁播放电视剧广西柳州城市职业学院机电与汽车工程学院一学生当天在现场参与试乘试驾活动,实际体验了上汽通用五菱宝骏新能源车型,对车辆充电功能、座椅舒适性及智能语音交互等关键性能进行了观察和学习。他表示,学校推进的产教融合模式使学生能够接触市场与企业前沿技术,为自身专业能力的提升和未来就业打下了坚实基础。
📸 王晓川记者 蔺方慧 摄
20250814 💌 成人韩国三色眼影迈克尔·菲什在《通勤梦魇:东京地铁与机器的人类学》中,为我们揭开了东京地铁系统令人窒息的高效运转背后那冰冷而精密的“技术性”本质。他剖析的并非仅是物理空间的拥挤,而是一个庞大技术集合体(technical ensemble)的运作逻辑——其核心在于“不确定性边际”(margin of indeterminacy)。东京地铁的超负荷运营(175%-230%的载客率)并非依赖绝对的精确与控制,而是通过系统(机器、时刻表、指令)与使用者(通勤者)之间动态的、充满张力的“间隙弥合”(finessing the interval)来实现。通勤者被深度卷入这个系统,他们的身体节奏、沉默礼仪、对微小延误的敏锐感知,都成为维持这个极端基础设施运转不可或缺的“人类适应策略”。然而,这种深度嵌入也制造了独特的“系统梦魇”:个体在绝对服从与集体协调的夹缝中喘息,人身事故(跳轨自杀)被系统化地处理为“规律的不规律”,成为技术性逻辑下被消化的“噪音”,个体的消亡在集体恢复运行的迫切需求面前显得苍白无力。菲什揭示的,是现代性技术集合体那令人敬畏又毛骨悚然的本质:它通过扩大不确定性边际来容纳极端压力,却也在此过程中重塑甚至吞噬着个体的生命体验与伦理感知。ysl水蜜桃86满十八岁还能用吗谈到他在比赛期间频繁发声的能力,詹姆斯说:“我在NBA的新秀赛季发言减少了一些,不是因为我不会发言了,而是因为我觉得,OK,我需要收敛一点,吸收知识,学习经验,然后观察什么时候需要我发声,我不想带着那股架势进入球队——我在高四时是排名全美第一的球员,但我知道当我被选入联盟时,我就是第450名的球员,那就是我的想法。
📸 李占海记者 陈雪波 摄
🍑 2021年春节至2021年12月,雒明池为其下属周某支持科室工作、避免因科室医生论文造假问题受处分等事项提供帮助,两次收受周某给予的人民币共计3万元;2019年春节至2022年春节,雒明池为下属王某支持科室工作、解决科室奖金核算问题等事项提供帮助,多次收受王某给予的购物卡和人民币,共计5.1万元。歪歪漫画免费阅读看漫画下拉式笔趣