梯度提升和梯度下降(梯度提升和梯度下降的区别)

梯度提升和梯度下降(梯度提升和梯度下降的区别)p id 34AE0VKB 在这篇论文中 作者讨论了无需训练的扩散加速方法 并提出 AdaptiveDiff 这个方法可以根据给定的提示动态选择去噪路径 作者还分析了跳步策略中的误差 提出使用三阶估计器来说明计算冗余 大量实验结果表明 这种方法在保证图像质量的同时 能有效降低推理成本 达到了很好的平衡 p

大家好,我是讯享网,很高兴认识大家。




讯享网

 <p id="34AE0VKB">在这篇论文中,作者讨论了无需训练的扩散加速方法,并提出AdaptiveDiffusion。这个方法可以根据给定的提示动态选择去噪路径。作者还分析了跳步策略中的误差,提出使用三阶估计器来说明计算冗余。大量实验结果表明,这种方法在保证图像质量的同时,能有效降低推理成本,达到了很好的平衡。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F14ac34cdj00slvykw002od200u000cog00ls0097.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p><blockquote id="34AE0VO5">论文题目: Training-Free Adaptive Diffusion with Bounded Difference Approximation Strategy 论文链接: https://arxiv.org/abs/2410.09873 代码链接: https://github.com/UniModal4Reasoning/AdaptiveDiffusion 项目主页: https://jiakangyuan.github.io/AdaptiveDiffusion-project-page/</blockquote></p><p id="34AE0VKF"><strong>一、背景</strong></p><p id="34AE0VKG">近年来,扩散模型在高质量图像和视频合成领域崭露头角,展现出强大的生成能力。从艺术创作到数据增强,扩散模型的应用范围不断扩大。然而,传统的去噪技术需要逐步预测噪声,计算量大,导致显著的延迟。</p><p id="34AE0VKH">为了解决这一瓶颈,研究者们提出了多种扩散加速方法,主要集中在减少采样步骤、优化模型架构和并行化生成等方式。然而,这些策略大多针对所有prompt采用固定的加速模式。</p><p id="34AE0VKJ"><strong>二、动机:提示词自适应(Prompt-adaptive)加速</strong></p><p>图一:不同的潜变量更新策略:(a) 原始 SDXL 执行 50 步的噪声预测与对应的50步潜变量更新得到的结果。(b) AdaptiveDiffusion 根据三阶估计器跳过 25 步噪声预测,而在全部 50 步中都执行潜变量更新得到的结果。(c) SDXL 仅执行 25 步的噪声预测和对应的25步潜变量更新得到的结果。(d) SDXL 在原始 50 步中跳过其中 25 步的噪声预测和对应的潜变量更新得到的结果。</p><p id="34AE0VKL">在本文实验中,作者首先发现在保留原有去噪步数的情况下减少噪声预测次数仍然可以生成与原始图像非常相似的生成效果,如图一所示。在此基础上,实验发现<strong>不同的提示词可能需要不同的噪声预测路径来达到与原始去噪过程相似或相同的生成效果</strong>。图二以 SDXL 模型为例,当输入两个不同的提示词时,为了在减少噪声预测次数的情况下最大程度保留原本生成图像的生成效果,Prompt 1 和 Prompt 2 所需的噪声预测路径呈现出不同的分布。当 Prompt 2 使用与 Prompt 1 相同的噪声预测路径时,其生成效果在视觉和量化指标上(LPIPS,PSNR)均有明显的改进。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F4b93f6daj00slvykz00p1d200u000ibg00ls00da.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图二:不同提示词存在潜在不同的最优跳步路径。<br/><strong>三、方法:AdaptiveDiffusion</strong></p><p id="34AE0VKN">基于上述观察,作者提出了<strong>AdaptiveDiffusion</strong>,一种可以<strong>根据不同输入提示词自适应加速生成过程的新加速模式</strong>。其核心思想是在去噪过程中,根据输入提示词自适应地减少噪声预测的步数,同时保持最终输出的质量以及与原图的相似度。</p><p id="34AE0VKO">为了探索自适应的跳步准则,作者进一步实验发现噪声预测的冗余与潜变量的三阶差分分布显著相关。利用这一关系,作者设计了一种有效的噪声跳步策略来决定何时复用上一步中的噪声预测结果,何时进行更新噪声的计算。该方法使用三阶潜变量差分来评估每个时间步的噪声预测是否冗余,考虑了对输入prompt的依赖性,从而实现了 prompt-adaptive 的加速模式,该加速框架如图三所示。</p><p>图三:AdaptiveDiffusion整体加速框架。<strong>3.1 跳步单元定义</strong></p><p id="34AE0VKQ">如图一中所示,在给定总体去噪步数的情况下,对于每个时间步中的噪声预测和潜变量更新而言,噪声预测步数的减少所带来的影响显著小于潜变量更新次数所带来的影响。因此,不同于过去的加速算法选择减少去噪步数或减少每一步噪声预测中的计算量,该工作提出新的跳步策略:<strong>对于每个时间步而言,以跳过完整的噪声预测模型为跳步单元来探索每个时间步冗余性,而每一步中的潜变量更新均保留,从而保证充分去噪</strong>。</p><p><strong>3.2 跳步误差估计</strong></p><p id="34AE0VKR">在给定上述跳步单元定义后,一种直观的想法是根据跳步误差来判断是否可以跳过当前步的噪声预测。对此,作者从理论和实验结果分析得出下述结论:连续跳任意步数后(以 步为例),得到的去噪图像(或更新后的潜变量)相较于原始不跳步所生成的图像(或潜变量)而言,其潜变量的误差上界可以近似为过去 步之间时间隐变量(timestep embedding)和潜变量(latent)一阶差分的 范数的等价无穷小量,即<strong>潜变量的误差近似由过去</strong><strong>步之间的潜变量差异和时间步差异累计而成</strong>。因此,可以推断当过去连续若干个潜变量变化较小时,可以跳过当前的噪声预测,直接通过复用上一步的噪声来更新当前时间步的潜变量。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F17ac2455j00slvyl1004id200u0007lg00ls005i.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图四:不同变量不同阶数差分分布与最优跳步路径的相关性分析。</p><p id="34AE0VKT">为了定量分析跳步策略和潜变量之间变化的关系,作者首先利用贪婪算法来近似最优跳步路径。<strong>跳步路径</strong>定义为由若干 0 / 1 元素组成的序列,其中第 个元素为 1 表示第 步不跳步,为 0 则表示跳步并复用上一步的噪声预测。对于给定跳 步的总体目标,贪婪算法首先遍历搜索出跳一步的最优路径,再基于该路径遍历搜索出跳两步的最优路径,依此类推,逐渐遍历搜索出跳 步的最优路径。其评判准则为最小化跳步后最终生成的图像和原始生成的图像之间的差异。</p><p id="34AE0VKU">以贪婪算法得到的跳步路径近似全局最优的跳步路径,作者探索了不同变量不同阶数的差分分布与跳步路径之间的相关性。其结果如图四所示。图四(a)探索了噪声的一阶差分分布和最优跳步路径之间的关系,可以看出无明显的相关性。类似地,图四(b)中展示了潜变量的一阶和二阶差分分布,其中一阶差分分布也无明显的相关性,而二阶差分分布的变化趋势反映了一定的相关性。即,当二阶差分值减小时,对应当前时间步的噪声预测可以复用上一步的结果,当二阶差分值增大时,当前时间步的噪声预测需要更新。</p><p id="34AE0VKV">然而,由于二阶差分的增量相对于二阶差分值来说非常小,因此很难在其中抽取出有效信号作为普遍的跳步准则。为此,图四(c)进一步探索了三阶潜变量差分分布和最优跳步路径的关系,可以发现三阶差分和最优跳步路径呈相似并且显著的波动趋势,尤其在早期去噪阶段。同时,考虑到早期潜变量的一阶差分数值较大,早期的跳步路径需要准确地评估,而这可以通过三阶差分来进行估计。(跳步策略和三阶差分之间的定量关系分析见论文附录)</p><p><strong>3.3 跳步准则设计</strong></p><p id="34AE0VL0">基于上述实验观察和定量分析,作者提出了三阶差分估计器(third-order estimator)作为跳步准则。其表达式如下式所示。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F36ebc0b7j00slvyl10009d200u0003yg00ls002v.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34AE0VL7">其中, 是一个指示函数,它以 以及过去的潜变量 作为输入,用来估计是否可以跳过下一步的噪声预测。如果 返回 False,那么将会重复使用上一步的噪声来更新 。 表示在时间步 的三阶潜变量差分,</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2Fa91b434cj00slvyl10008d200u0002kg00ls001u.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34AE0VLD">其中 ,定义为 和 之间的差分( )。 是对 的相对尺度进行阈值处理的超参。由于 实际上描述了 和 之间的距离,因此作者提出使用相对于 的差异来表明去噪过程的稳定性。图四(c)展示了 (蓝色虚线)与最优跳步路径之间的强相关性。</p><p><strong>3.4 有效性分析</strong></p><p id="34AE0VLE">为了验证所提出的三阶估计器的有效性,作者将三阶估计器所得路径与通过贪婪算法搜索得到的最优跳步路径进行对比,如图五(a)所示。可以看出,三阶估计器估计的路径与最优跳步路径的分布大致相似。图五(b)中展示了跳步所导致的累积误差。可以发现,在连续跳过噪声预测后,误差开始迅速增加。因此,作者引入另一个超参 ,即连续跳步的最大步数,来控制累积误差。</p><p id="34AE0VLF">此外,论文分析了估计路径与最优路径之间的统计相关性,以测试所设计的准则是否与最优跳步准则显著相关。图五(c)展示了在不同跳步步数下的 统计量和 值。结果表明,当跳步步数适中时,估计的跳步路径与最优跳步路径显著相关。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F2de832bcj00slvyl20049d200u0007kg00ls005h.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图五:三阶估计器的有效性分析。<strong>四、实验</strong><strong>4.1 实验设置</strong><ul><li id="34AE0VO0"></p><p id="34AE0VLH"><strong>测试任务</strong>:Text-to-image, image-to-video, text-to-video, conditional / unconditional image generation;</p><p></li><li id="34AE0VO1"></p><p id="34AE0VLI"><strong>测试模型</strong>:SD-1-5, SDXL, I2VGen-XL, ModelScopeT2V, LDM-4;</p><p></li><li id="34AE0VO2"></p><p id="34AE0VLJ"><strong>测试采样器</strong>:DDIM, DPM-Solver++, Euler;</p><p></li><li id="34AE0VO3"></p><p id="34AE0VLK"><strong>基准数据集</strong>:COCO2017, ImageNet-256x256, AIGCBench, MSR-VTT, CIFAR10, LSUN;</p><p></li><li id="34AE0VO4"></p><p id="34AE0VLL"><strong>评价指标</strong>:PSNR, LPIPS, FID, FVD, MACs, Memory, Latency。</p><p></li></ul><strong>4.2 实验结果</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F1ce4a6b8j00slvyl30033d200u000bog00ls008g.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图六:COCO2017上T2I任务的加速结果比较。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F1af7d829j00slvyl3001bd200u0004vg00ls003j.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图七:ImageNet-256x256上加速结果比较。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2Ffb62fa1cj00slvyl4001qd200u0005mg00ls0042.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图八:视频生成数据集上I2V和T2V任务的加速效果比较。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F41e50b83j00slvyl5002pd200u0009gg00ls006u.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图九:超参敏感性分析。<strong>4.3 可视化结果</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2Fb5e0c344j00slvyl600v8d200u000hdg00ls00cl.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图十:左边三列为SDXL在COCO2017上的生成样本比较,右边三列为SD-1-5在COCO2017上的生成样本比较。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2Fj00slvyl900pod200u000dkg00ls009u.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图十一:I2VGen-XL在AIGCBench上的视频生成样本比较。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1025%2F2c2c9df2j00slvyl9002md200u00079g00ls0059.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图十二:不同跳步步数下最优跳步路径和估计得到的跳步路径比较。(a) 通过贪婪搜索算法在不同跳步目标下获得的跳步路径。(b) 通过三阶估计器在不同跳步阈值下获得的跳步路径。(c) 在COCO2017基准测试上,SDXL生成图像时噪声更新步骤的跳步次数的频率分布。</p><p id="34AE0VLT">五、总结</p><p id="34AE0VLU">在这篇论文中,作者探讨了无需训练的扩散加速方法,并提出了<strong>AdaptiveDiffusion</strong>。该方式能够根据给定的prompt动态选择去噪路径。同时,作者进行了跳步策略的误差分析,并进一步提出使用三阶估计器来表明计算冗余。大量广泛的实验结果显示该方法在保证高图像质量的同时有效降低了推理成本,达到了良好的平衡效果。</p><p id="34AE0VLV">llustration From IconScout By Kawalan Studio</p><p id="34AE0VM3">-The End-</p><p id="34AE0VM7"><strong>扫码观看!</strong></p><p id="34AE0VMA"><strong>本周上新!</strong></p><p id="34AE0VMH"><strong>“AI技术流”原创投稿计划</strong></p><p id="34AE0VMJ">TechBeat是由将门创投建立的AI学习社区(</p><p><blockquote id="34AE0VO6">www.techbeat.net</blockquote>) 。 社区上线500+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。<br/></p><p id="34AE0VML"><strong>投稿内容</strong></p><p id="34AE0VMM"><strong>// 最新技术解读/系统性知识分享 //</strong></p><p id="34AE0VMN"><strong>// 前沿资讯解说/心得经历讲述 //</strong></p><p id="34AE0VMP"><strong>投稿须知</strong></p><p id="34AE0VMQ">稿件需要为原创文章,并标明作者信息。</p><p id="34AE0VMR">我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励</p><p id="34AE0VMT"><strong>投稿方式</strong></p><p id="34AE0VMU">发送邮件到</p><p id="34AE0VMV"><strong></strong></p><p id="34AE0VN0">或添加<strong>工作人员微信(</strong><strong>yellowsubbj</strong>)投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“<strong>投稿</strong>”二字,获得投稿说明。</p><p id="34AE0VNA"><strong>关于我“</strong>门”</p><p id="34AE0VNF"><strong>将门</strong>是一家以专注于<strong>数智核心科技领域</strong>的<strong>新型创投机构</strong>,也是<strong>北京市标杆型孵化器</strong>。 公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。</p><p id="34AE0VNH">将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。</p><p id="34AE0VNJ">如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,<strong>欢迎发送或者推荐项目给我“门”:</strong></p><p id="34AE0VNK"></p><p class="f_center"><img src="http://dingyue.ws.126.net/2024/1025/bcd2ee39g00slvyld0052d200j000aog0059002y.gif"/><br/></p><p id="34AE0VNT">点击右上角,把文章分享到朋友圈</p> 

讯享网
小讯
上一篇 2025-05-10 12:52
下一篇 2025-04-18 13:04

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/171517.html