大自然用了亿万年优化的神经算法,或许正是突破当前人工智能瓶颈的钥匙。[1]”近日,美国哈佛大学团队和合作者探索了生物强化学习中多个时间尺度的存在,借此证明在多个时间尺度上学习的强化学习智能体具有独特的计算优势,并发现在执行两种行为任务的小鼠实验中,当多巴胺能神经元(Dopaminergic Neurons)编码奖赏预测误差时,表现出了多样化地折扣时间常数的特性。 这一成果为理解多巴胺能神经元的功能异质性提供了新范式,为“人类和动物使用非指数折扣”这一经验性观察提供了机制基础,并为设计更高效的强化学习算法开辟了新途径。 日前,相关论文发表于Nature[2],加拿大麦吉尔大学助理教授、原美国哈佛大学博士后研究员保罗·马赛(Paul Masset)是第一作者兼共同通讯作者。 研究中,研究团队使用专有模型解释了时间折扣(temporal discounting)的异质性,这种异质性既体现在由线索引发的瞬时反应中,也体现在被称为“多巴胺斜坡”的较慢时间尺度波动里。其中的关键在于,单个神经元在不同任务中测量得到的折扣因子具有显著相关性,这表明这些折扣因子拥有同一种细胞特异性属性。 需要说明的是,时间折扣(Temporal Discounting)是指个体对奖励或惩罚的主观价值评估会随着时间延迟而下降的心理现象。这一概念在行为经济学、神经科学和强化学习领域具有重要意义。折扣因子(Discount Factor)则是强化学习中的核心参数,用于衡量智能体对于未来奖励的重视程度。 不少人工智能领域的最新进展都依赖于时序差分(TD,temporal difference)强化学习。在这一学习方法中,时序差分的学习规则被用于学习预测信息。 在该领域之中,人们基于对于未来的预期值,来不断地更新当前的估计值,这让时序差分方法在解决“未来奖赏预测”和“行动规划优化”这两类任务上展现出了卓越性能。 对于传统时序差分学习来说,它采用固定折扣因子的标准化设定,即仅仅包含单一学习时间尺度。这一设定在算法收敛后会导致指数折扣的产生,即未来奖励的价值会随着时间单位呈现出固定比例的衰减。 尽管这种固定折扣因子的标准化设定,对于保持学习规则的简洁性和自洽性至关重要,但是众所周知的是人类和动物这些生物体在进行跨期决策时,并不会表现出指数型折扣行为。 人类与动物这些生物体能够动态地调节自身的折扣函数,以便适应环境的时间统计特性。而当这种调节功能失调的时候,可能是出现心理异常或罹患某种疾病的标志。 研究团队表示,将时序差分学习规则加以进一步扩展之后,能够让人造神经系统与生物神经系统学习更加复杂的预测表征。越来越多的证据表明,生物系统中存在丰富的时间表征,尤其是在基底神经节中。需要说明的是,基底神经节是脊椎动物大脑中一组起源不同的皮质下核。而探明这些时间表征到底是如何学习的,仍然是神经科学领域和心理学领域的一个关键问题。 在大多数时间学习理论中,一个重要组成部分便是多重时间尺度的存在,这使得系统能够捕捉不同持续时间范围内的时间依赖性:较短的时间尺度,通常能够处理快速变化的关系以及即时依赖性关系;较长的时间尺度,通常能够捕捉缓慢变化的特征以及处理长期依赖性关系。 此外,人工智能领域的研究表明,通过纳入多个时间尺度的学习,深度强化学习算法的性能可以得到提升。那么,大脑中的强化学习是否也表现出这种多时间尺度特性? 为此,研究团队研究了多时间尺度强化学习的计算含义。随后,他们发现多巴胺能神经元会在不同的时间尺度上编码预测,从而能为大脑中的多时间尺度强化学习提供潜在的神经基础。 研究团队发现,对于在各类复杂问题中的表现来说,那些采用多时间尺度学习的强化学习智能体,远远优于采用单一时间尺度的智能体。 为了说明多时间尺度表征的计算优势,他们展示了几个示例任务:包括一个简单的线性迷宫、一个分支迷宫、一个导航场景和一个深度 Q 网络(DQN,deepQ-network)场景。 同时,智能体基于已经习得的线索关联价值,通过解码网络针对价值信息进行任务特异性转换,最终生成与任务需求相匹配的行为输出。 由于某些任务涉及到多时间尺度值上的复杂非线性操作,于是研究团队使用策略梯度为每个任务训练了一个通用的非线性解码器。 鉴于本次研究旨在评估多时间尺度价值表征相比单时间尺度表征的核心优势,以及旨在探究这些优势能在多大程度上被一个与代码无关的简易解码器所利用。因此,在研究团队的模型中,多时间尺度价值信号并不直接驱动行为输出,而是作为一种增强型状态表征,以便能为后续任务特异性行为的解码提供信息基础。 通过此,他们分析了多时间尺度强化学习智能体的独特计算优势,并表明这一视角能够解释多巴胺能神经元活动背后的多个原理。 研究团队表示,“将多巴胺能神经元理解为通过时序差分强化学习算法计算奖励预测误差”的观点,彻底改变了人们对于这类神经元的功能的认知。 但是,也有研究通过拓展记录位点的解剖学范围,揭示了多巴胺神经元响应存在显著的异质性,不过这些发现难以在经典的时序差分强化学习框架中得到合理解释。 同时,许多看似异常的发现可以在强化学习框架的扩展中得到调和和整合,从而进一步加强时序差分理论在捕捉大脑学习机制复杂性方面的强大能力和通用性。 相比传统强化学习框架中基于标量预测误差的方法,多巴胺系统能够学习和表征更丰富的信息,这是因为多巴胺系统使用了“参数化向量预测误差”。在“参数化向量预测误差”中,包含了对于奖励函数未来时间演化的离散拉普拉斯变换。 需要说明的是,离散拉普拉斯变换(DLT,Discrete Laplace Transform)是经典拉普拉斯变换在离散时间或离散空间上的推广,主要用于信号处理、系统控制和机器学习等领域。 另据悉,调整折扣因子已被用于在多种算法中提升性能,相关方法包括:通过元学习获取最优折扣因子、学习依赖状态的折扣因子,以及结合并行指数折扣智能体。 但是,神经元通过任务或情境来适配全局折扣函数的募集机制是什么?解剖位置与折扣行为之间的关联是什么?以及 5-羟色胺等其他神经递质对这种适配的贡献是什么?这些都是尚未解决的问题。 同样的,向量化误差信号对于下游时间表征的调控机制仍有待进一步研究。而理解这种神经资源“调动”机制的背后原理,有助于人们在机制层面理解时间尺度多样性在时间决策中的校准作用与失调作用。 此前曾有研究探索了多巴胺能神经元的折扣机制,并认为单个多巴胺能神经元表现出双曲线折扣。然而,此前这一研究采用非提示性奖励反应作为零延迟奖励的测量指标,这种方法可能导致结果更加偏向于双曲线折扣模型。 相比之下,本次研究团队的数据与单个神经元水平的指数折扣保持一致,这表明每个多巴胺能神经元所定义的强化学习机制,和强化学习算法的规则是互相符合的。 当这些不同的指数折扣在生物体层面结合时,可能会出现类似双曲线的折扣。也就是说,多个时间尺度对全局计算的相对贡献决定了生物体水平的折扣函数,并且该函数会根据环境风险率的不确定性进行校准。 因此,适当地引入折扣因子的异质性,对于适应环境的时间不确定性非常重要。这一观点也与分布式强化学习假说存在相似之处,该假说认为乐观与悲观的校准失衡会导致习得价值出现偏差。 由于遗传、发育或转录因素导致的这种分布偏差,可能会使生物体在学习过程中要么倾向于追求短期目标、要么倾向于追求长期目标。同样的,这种观点也可用于指导算法设计,使其能够调动并利用这些自适应的时间预测。 总的来说,本次成果创立了一个全新的研究范式,能被用于解析多巴胺能神经元中预测误差计算的功能机制,这不仅为生物体疾病状态下的跨期决策障碍提供了新的机理解释,更为新一代算法的设计带来了重要启示。
姐姐让我戴上避孕套的歌词是什么在其关注列表里有300多个账号,记者随机选取了其中20个账号浏览发现,若没有看到评论区“这是AI吧,手指的细节很诡异”“背景里的文字都是乱码”等留言,记者第一反应只以为他们是普通的颜值时尚类博主。我为球队感到开心,为他们活在那个时刻感到高兴,也为这里的人民感到开心。他们整个赛季表现非常出色。看到那么多人参与庆祝,氛围非常棒,真的很震撼。姐姐让我戴上避孕套的歌词是什么特种兵营里被轮流的小说叫什么来着“我觉得是持球时更从容了,”他说,“谢耶教练一开始就非常信任我,我经历了一些失误、考验和磨难,慢慢找到了节奏。但他从未放弃我,始终信任我,这让我在整个赛季中逐渐适应并提升效率。”这个小伙子总能进球,而且他要明白自己面临着竞争。马尔穆什表现出色,每个人都必须全力以赴,否则对所有人来说都会很艰难。
20250812 🍑 姐姐让我戴上避孕套的歌词是什么默认关闭不必要的权限收集;内置本地加密存储功能,减少用户数据上传;明确标注数据使用范围,让用户知道自己信息怎么用。女性一晚上3次纵欲导致不孕据悉,受害者一旦下载运行相应压缩包中的exe文件,电脑界面上便会出现一个伪装的窗口以转移受害者注意力,而后台则通过XOR运算或AES算法解密并执行黑客事先设计的恶意代码,从而获取受害者电脑中 Chrome、Firefox两大浏览器保存的密码、Cookies以及自动填充信息。
📸 宋绍辉记者 陈贺峰 摄
20250812 🔞 姐姐让我戴上避孕套的歌词是什么CVPR上的workshop琳琅满目。而其中越来越多的讨论里,会有更多工业界的人参与其中。会场里,像Meta、NVIDIA、Google、Apple等企业logo遍布,很多researcher也挂着这些公司工牌,企业研究人员的占比明显上升。不少技术talk和panel讨论直接围绕“从论文到产品”的话题,工业界和学术界的界限在进一步模糊。真人做aj的视频教程大全欧洲U21国家杯小组赛第二轮,葡萄牙U21与波兰U21展开较量。比赛中,热奥瓦尼-昆达表现出色完成两粒进球,恩里克-阿劳若和保罗-贝尔纳多相继建功,罗德里戈-戈麦斯也在队友助攻下取得一粒进球。最终,葡萄牙U21以5-0的比分战胜波兰U21。
📸 付永娟记者 王建堂 摄
🔞 不过,李元春也坦言目前这个领域的发展还是有不少泡沫:“GUI Agent 是一个比较容易通过根据场景定制做出还不错的 demo 的方向,有很多团队发布了很酷炫的 demo,给人一种‘问题已经被解决’的错觉。而实际上,在这个领域的研究者都知道它的泛化能力、安全性等还存在很多挑战,尤其是考虑端侧的实用性就更有难度了。还需要脚踏实地,耐心地解决问题,把真实的效果提升上去。”最好看的日本MV片视频