据知名科普杂志《科学美国人》的报道,今年五月中旬,一场由非营利组织 Epoch AI 主办的 FrontierMath 研讨会在加州伯克利秘密举行。三十位被称为“全球最负盛名的数学家”齐聚一堂,他们的任务只有一个:设计出人类专家能够解决、但最先进的 AI 却会束手无策的数学难题。 这场对决的主角,是来自 OpenAI 的推理大语言模型 o4-mini。与早期版本的 ChatGPT 相比,o4-mini 在专门的数据集上进行训练,得到了更强的人类反馈强化,能够进行更加复杂和深入的数学推理。 报道提到,Ken Ono 在会议中遇到了一个令他十分难忘的时刻。他设计了一个在他所在领域(数论)被认为是“开放性问题”的博士级别难题,并将其交给了 o4-mini。在接下来的十分钟里,Ono 和其他与会者在惊愕中见证了 AI 实时展开解题过程。模型首先花了大约两分钟,迅速检索并“掌握”了该领域的相关文献。紧接着,它提出先解决一个简化的“玩具版本”问题以进行学习。几分钟后,它宣布已准备好应对真正的挑战。最终,在总共不到十分钟的时间里,o4-mini 不仅给出了正确答案,其输出的文字甚至带有一种俏皮的自信,结尾写道:“无需引用,因为这个神秘数字是由我计算出来的!” 这一幕给 Ono 带来相当大的冲击,他坦言:“我从未在模型中见过那种推理方式。那是科学家的工作方式。这太吓人了。”他甚至在周日清晨就迫不及待地通过加密通讯软件 Signal 提醒其他与会者,他感觉自己面对的不再是一个程序,而是一个“强大的合作者”。 类似的震撼场面在会议期间反复上演。其他数学家发现,即使是涉及最近研究成果的问题,AI 也表现出惊人的文献检索和应用能力。它能够迅速找到、引用并应用相关的研究结果,这种速度和准确性远超人类专家的预期。伦敦数学科学研究所的 Yang-Hui He 也给出了极高的评价,认为 AI 的表现“比一个非常非常优秀的博士生做得还要多”。 在这场挑战中,o4-mini 在处理需要深度几何直觉和拓扑理解的问题时表现尤其出色,而且其速度远超人类,能在几分钟内完成人类专家需要数周甚至数月才能完成的工作。尽管最终与会者们还是成功找到了 10 个能够难住 AI 的问题,但这个结果本身还是给数学家们带来极大冲击——相比于传统语言模型在类似基准测试中不到 2% 的成功率,o4-mini 展现出的数学推理能力已经达到了前所未有的水平。 不过在这篇文章引发热烈讨论后,一位参与了此次研讨会的数学家、Hyperbolic 创始人 Jasper Zhang 提出了一些异议,他表示,虽然 AI 的进步确实惊人,但原始报道在某些方面“有些夸张,需要澄清”。 Jasper 首先指出了一个被报道淡化,却对整个挑战性质有决定性影响的关键约束:“每个问题都需要一个数值答案”。他解释说,这与高等数学的核心有显著区别。现代数学研究的中心通常是推理与证明,而非纯粹的计算。一个问题可以有复杂的逻辑结构和深刻的理论内涵,但最终被要求输出一个具体的数字,这本身就改变了问题的性质,使得它更偏向于一个可以被计算工具优化的任务。 Jasper 所在的几何与拓扑小组,最初的策略是设计一些需要深刻几何直觉和关键定理理解的博士级别问题。他们相信,这是当前 AI 模型的弱点。但令他们惊讶的是,o4-mini 模型成功解决了他们提出的大部分问题。但这里的“解决”需要打上引号。Jasper 特别提到:“尽管其推理过程有时是错误的,但它仍然设法得出了正确的数值答案。” 这就说明,AI 可能并非通过类似人类的、严谨的逻辑推演来“理解”问题,而是利用其强大的模式匹配和计算能力,找到了一条通往正确数字的路径,哪怕这条路径在数学逻辑上并不完美。 基于这一发现,Jasper 和他的同事调整了策略。他从一篇数学论文中提取了几个中间定理,然后设计了一个新问题,要求将这些定理综合起来,形成一种计算方法。这一次,AI“正如预期地陷入了困境”。Jasper 写道:“它无法将中间步骤联系起来,也无法有效地进行逻辑链条的推理。”这次失败,恰恰揭示了当前 LLM 的深层局限:在需要从零开始进行多步骤、跨概念的逻辑综合与创造时,它仍然力不从心。 除了个别非常吸引眼球的案例,这次会议还揭示了 AI 数学能力的其他重要特征。参与者们发现,o4-mini 在处理涉及最新研究成果的问题时表现出色,能够有效地搜索、理解并应用最新的学术文献。这种能力在某种程度上弥补了人类专家在信息处理速度上的不足。 同时,会议也暴露出 AI 系统的一个潜在风险:过度自信的表达方式。Ono 和 He 都表达了对 o4-mini 结果可能被过度信任的担忧。“有归纳证明、反证法,然后还有恐吓证明,”He 说,“如果你用足够的权威说某件事,人们就会感到害怕。我认为 o4-mini 已经掌握了恐吓证明;它说每件事都充满自信。” 从那 10 个成功“难倒”AI 的问题来看,它们往往需要复杂的多步骤推理和创新性的概念综合,而这也说明,当前 AI 系统的局限还是主要体现在原创性思维和深度逻辑综合能力上。 最后,我们可以用 Jasper 的几点核心看法作为总结:AI 在过去两年确实取得了巨大进步,但目前的 LLM 在很大程度上仍然依赖于模式匹配,其深度推理能力有限。它们尚不具备生成全新数学成果的能力,但极其擅长收集相关文献和起草初步解决方案。人类的监督,尤其是在验证和综合方面,仍然是不可或缺的。 他的预测也更为温和:在未来一到两年内,AI 将主要作为数学家的“助手”,帮助发现新理论和解决开放问题,就像陶哲轩与 DeepMind 的合作那样。之后,AI 才会开始作为“合作者”,并最终独立地推动数学前沿。
WW我的快乐在哪里俞超在对比使用了几款海外AI编程工具后得出的结论是:“除了模型之外,海外产品同样有两点值得参考:一是速度,尤其是Cursor的产品迭代速度非常快,甚至一天有几版本迭代;二是对产品细节的打磨。”这一点在Cursor身上就体现非常明显,比如UI、操作流程上,都能让开发者实现沉浸式编程。对比之下,国内产品不仅要打磨好产品,提升模型能力,在此前提之下进一步培养用户的付费意愿。有意思的是,面对危机,和达科技在回复上交所问询时,公司表示管理层“对出现的问题高度重视”,已制定各项整改措施并严格落实。WW我的快乐在哪里鲁鲁影院免费观看电视剧电影窝窝《华盛顿邮报》援引四名知情人士称,自特朗普和马斯克公开对线以来,政府官员已联系至少三家商业航天公司——火箭实验室(Rocket Lab)、斯托克太空公司(Stoke Space)和贝索斯的蓝色起源(Blue Origin),询问其火箭研发进度以及何时能为政府任务提供服务。AI诈骗以假乱真、钓鱼软件窃取个人信息、过度索取用户权限……数字经济蓬勃发展,数据安全问题引人关注。在日前举行的2025中国数谷·西湖论剑大会上,专家围绕数据要素价值释放、人工智能创新突破、数字时代安全共生等主题展开研讨。
20250813 😈 WW我的快乐在哪里成员C: 我的意思是,趋势一直是上下文变得越来越长。注意力机制非常擅长利用长上下文,但是,你也知道,代价也越来越高。在技术层面,我认为长上下文一个非常有趣的方向是,如何保持成本的降低?如何在多个提示词中复用缓存的上下文?这与最新的、能力比以往更强的模型尤其相关。但是,如果你没有巧妙地缓存和使用上下文,总成本可能会非常高。而且,当你开始研究专业的代码库时,对于你想要做的事情来说,存在着大量的相关上下文。我认为这在某种程度上对代码来说可能是特殊的,因为,如果你是ChatGPT,或者你是Plot应用,在大多数情况下,用户带来的上下文并不多。他们有一个问题,通常是100个token。因此,你主要关心的是如何将人类知识的总和压缩成权重,然后用它来为问题提供一个好的答案。你不太关心如何获取一百万个token,并从中获得可以有效利用的有用信息。因为这并非你的大多数用户所关心的事情。免费观看已满十八岁电视剧下载安装近几个月里,特斯拉一直在面对美国家公路交通安全管理局的压力,要求公司提供更多有关“车辆能否在道路能见度降低的情况下做出适当反应”的信息。而得克萨斯州当地的议员们,也施压公司推迟上线Robotaxi,直到9月该州修订后的自动驾驶法律生效。新法规要求Robotaxi运营商上路前必须获得机动车管理局的授权。
📸 郑振海记者 孔令伟 摄
20250813 😘 WW我的快乐在哪里小米YU7 分为标准、Pro、Max 三个版本,分别对应后驱、四驱、高性能四驱 3 种不同的动力形式。其中,标准版25.35万元起售;Pro 版本27.99万元起售;Max 版本32.99万元起售。女性私处蹲下拍照有疙瘩来来来,咱们深挖一下刘品言的背景。她1988年出生于台湾,从小就多才多艺,后来以女团成员身份出道,那甜美的嗓音和灵动的模样,不知道迷倒了多少人! 之后她转战影视圈,在《仙剑奇侠传》里演的阿奴,活泼可爱又深情,简直就是无数人心中的白月光!
📸 李海水记者 姜明霞 摄
🔞 我不知道……他非常有天赋,他的射门能力很强,视野开阔……他是那种可以在场上任何地方都让对方球队失去平衡的球员之一。正如我所说的,他有着美好的未来。我衷心祝愿他一切顺利,祝他事业顺利。漫蛙漫画(网页入口)