<p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F7347e6c5j00smijar002pd200u000cvg00u000cv.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGNTS"><strong>新智元报道</strong></p><p id="359QGNTV">编辑:LRST</p><p id="359QGNU1"><strong>【新智元导读】</strong>VQAScore是一个利用视觉问答模型来评估由文本提示生成的图像质量的新方法;GenAI-Bench是一个包含复杂文本提示的基准测试集,用于挑战和提升现有的图像生成模型。两个工具可以帮助研究人员自动评估AI模型的性能,还能通过选择**候选图像来实际改善生成的图像。</p><p id="359QGNU4">近年来,生成式人工智能(AIGC)引发广泛关注。Midjourney、Imagen3、Stable Diffusion和Sora等模型能够根据自然语言提示词生成美观且逼真的图像和视频,广受用户喜爱。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fc596f3d7j00smijas00pad200u000bmg00zk00dr.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGNU8">然而,这些模型在处理复杂的提示词时仍存在不足。例如,当让Stable Diffusion或Midjourney生成「棕色的狗绕着一棵树追黑色的狗」时,模型可能会错误生成两只黑狗,或将「追逐」误解为两只狗在「玩耍」。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F93018e20j00smijat008ld200u0007eg00zk008r.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGNUC">有什么办法可以自动发现这些模型的不足,并进一步提升它们呢?</p><p id="359QGNUE">为解决这一问题,CMU和Meta团队联合推出了全新的评估指标VQAScore及基准GenAI-Bench,用于自动评估图像、视频和3D生成模型在复杂提示词下的表现。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fa0j00smijau001zd200u000amg00zk00ck.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F9d8bbd8dj00smijau002ed200u000axg00zk00cx.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGNUI">ECCV’24论文链接::https://arxiv.org/abs/2404.01291</p><p id="359QGNUJ">CVPR’24 SynData**论文链接:https://arxiv.org/abs/2406.13743</p><p id="359QGNUK">论文代码:https://github.com/linzhiqiu/t2v_metrics</p><p id="359QGNUL">模型下载:https://huggingface.co/zhiqiulin/clip-flant5-xxl</p><p id="359QGNUM">VQAScore模型:https://huggingface.co/zhiqiulin/clip-flant5-xxl</p><p id="359QGNUN">GenAI-Bench数据集:https://huggingface.co/datasets/BaiqiL/GenAI-Bench</p><p id="359QGNUP">这些成果已在ECCV和CVPR等顶会上发表,并被谷歌DeepMind用于评估其最新的Imagen3模型,被誉为当前文生图领域超越CLIP等模型的**评估方案!</p><p id="359QGNUT">背景介绍</p><p id="359QGNV1">近年来,文生图模型(如DALL-E 3、Imagen3、Sora等)发展迅速,但如何准确评估这些模型的表现仍是一个关键问题。</p><p id="359QGNV3">尽管许多公司采用人类评估(Human Evaluation)来提升结果的准确性,但这种方式成本高、难以大规模应用,而且缺乏可复现性。</p><p id="359QGNV5">在图片生成领域,已有多种方法使用模型来自动评估(Automated Evaluation)生成图像的表现,其中常见的指标包括CLIPScore、FID、LPIPS、PickScore、ImageReward和HPSv2等。</p><p id="359QGNV7">然而,这些指标真的足够好吗?</p><p id="359QGNVB">现有自动化指标的不足</p><p id="359QGNVF">在评估两张图片的相似性(similarity)时,传统指标LPIPS等方法依靠预训练的图像编码器,将图像特征嵌入后再计算距离。然而,这类方法只能评估图像与图像之间的相似度(image-to-image metric),而无法判断文本和图像之间的相似度(text-to-image metric)。</p><p id="359QGNVH">为了解决这一问题,当前主流的文生图评估采用了CLIPScore,通过独立的图像编码器和文本编码器,将图像和文本嵌入到同一特征空间,并通过计算特征相似度来判断它们的匹配程度。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F8bfeb0daj00smijav0053d200u000eig00u000ei.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGNVL">然而,CLIPScore存在严重的「bag-of-words」问题:也就是说,CLIP在处理文本时可能忽略词序,混淆像「月亮在牛上面」和「牛在月亮上面」这样的句子。这使得模型难以准确抓住复杂文本中的关键信息。</p><p id="359QGNVN">为了解决这一问题,CMU和Meta的研究团队提出了VQAScore,采用更强大的生成式VQA模型(如GPT-4o)来更准确地评估文生图模型:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F519b685aj00smijaw0079d200k000o1g0071008f.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGNVT">VQAScore:一种简单有效的评估指标</p><p id="359QGO01">研究团队基于GPT-4o等用于视觉问答(VQA)任务的生成式视觉语言模型,将图像与提示词之间的相似度定义为模型在回答「这个图像是否显示了[提示词]?请回答是或否。」时给出「是」(Yes)答案的概率:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fa53f1a9dp00smijaw0009d200u0001yg00zk002a.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO05">例如,在计算某张图像与提示词「牛在月亮上面」之间的相似度时,VQAScore会将图像和问题「这个图像是否显示了『牛在月亮上面』?请回答是或否。」输入模型,并返回模型选择「是」的概率。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Faf9d4cb7j00smijax004md200u000g3g00zk00j2.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO09">另外,研究团队发现,当前主流的VQA模型(如LLaVA-1.5)使用了具备单向(auto-regressive)注意力机制的语言模型(如Llama)。这种机制导致模型在提取图像特征时,无法提前获取提示词的完整信息。</p><p id="359QGO0B">为了更有效的提取视觉特征,研究团队使用开源数据训练了一个更强的CLIP-FlanT5 VQA模型。该模型采用了具备双向注意力机制的语言模型FlanT5,使得图像特征提取能够根据输入的提示词动态调整。</p><p id="359QGO0D">研究表明,这一机制在提升VQA模型对复杂提示词的理解方面效果显著。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fbb9fbcb4j00smijay0048d200u000g3g00zk00j2.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO0H">VQAScore比主流评估指标更简单高效。许多传统指标依赖大量人类标注(如 ImageReward、PickScore)或私有模型(如GPT-4Vision)才能取得好表现。</p><p id="359QGO0J">相比之下,VQAScore具备以下核心优势:</p><p id="359QGO0L">1. 无需人类标注:VQAScore能直接利用现有的VQA模型取得优异表现,无需在人工标注数据上进行额外微调。</p><p id="359QGO0N">2. 分数更精准:使用GPT-4给图片打分(如在0到100之间打分)时,模型往往会随意给出高分(如90),而忽略图片的真实质量。相比之下,VQAScore使用概率值来判断图片与提示词的相似度,结果更加精确。</p><p id="359QGO0R">VQAScore实验结果</p><p id="359QGO0V">研究人员在大量复杂图文匹配基准(如Winoground和EqBen)以及文生图评估基准(如Pick-a-pic和TIFA160)上对VQAScore进行了测试。</p><p id="359QGO11">结果显示,VQAScore在所有图像、视频和3D生成任务的基准上超越了CLIPScore等流行指标,取得了**表现。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F4694bfa1j00smijaz009ad200u0009lg00zk00bc.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F7d6dfa0cj00smijb000b3d200k000lfg00k000lf.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO17">值得注意的是,VQAScore采用了开源模型(CLIP-FlanT5),却仍大幅超越了使用更强闭源模型(如PALI-17B和GPT-4)的方法(如VQ2、ViperGPT 等)。</p><p id="359QGO19">此外,VQAScore也超越了依赖提示分解进行视觉推理的先进方法(如 CVPR'23**论文Visual Programming和ViperGPT等),进一步验证了端到端评估方案的有效性。</p><p id="359QGO1B">最新的谷歌DeepMind Imagen3报告还指出,使用更强大的VQA模型(如 Gemini)可以进一步提升VQAScore的表现,凸显了其在未来生成式模型评测中的潜力。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Faa8073efj00smijb200fyd200np00k0g00np00k0.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO1H">GenAI-Bench:由设计师收集的高难度文生图基准</p><p id="359QGO1L">为了更好地评估文生图模型及其评估指标的性能,研究团队推出了GenAI-Bench。该基准包含1600个由设计师收集的复杂提示词,覆盖了10种生成模型(如DALL-E 3、Midjourney、SDXL等),并配有超过80,000条人工标注。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fd10f0993j00smijb200ayd200u000awg00zk00cw.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO1P">GenAI-Bench相比较之前的基准有以下优势:</p><p id="359QGO1R">1. 更具挑战性:研究表明,大多数文生图/视频模型在GenAI-Bench上表现仍有不足,还有大量的提升空间。</p><p id="359QGO1T">2. 避免空洞词汇:所有提示词均经过严格筛选,避免使用假大空的词语,确保评估更具客观性。</p><p id="359QGO1V">3. 细粒度技能分析:GenAI-Bench能提供更细致的技能分类和分析,帮助研究人员深入了解模型在不同能力上的具体表现。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F28a0defej00smijb3006qd200u0008xg00zk00ak.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO25">GenAI-Rank:用VQAScore来提升文生图表现</p><p id="359QGO29">研究人员构建了一个新的GenAI-Rank基准,为每个提示词使用DALL-E 3和Stable Diffusion(SD-XL)生成3到9张候选图像。</p><p id="359QGO2B">研究表明,从这些候选图像中返回VQAScore得分最高的图像,可以显著提升文生图模型的效果。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fd9afeaa1j00smijb400ped200k000ssg00k000ss.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO2F">这一方法无需微调生成模型本身,因此也能优化(黑箱)私有模型,如DALL-E 3。</p><p id="359QGO2H">实验结果进一步证明,VQAScore在图像排序上比其他方法(如CLIPScore、PickScore等)更加有效。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F2d040d48j00smijb5002dd200u000djg00zk00g1.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO2M">结语</p><p id="359QGO2P">VQAScore和GenAI-Bench为文生图模型提供了更精准且全面的评估,已被Imagen3、VILA-U、RankDPO等多个项目用于更好地评估和优化最新的生成式模型。研究团队已开源代码和数据集,期待未来更多探索与进展!</p><p id="359QGO2T">团队介绍</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fc982b056j00smijb801e0d200u000u0g00u000u0.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO33">团队的一作林之秋(Zhiqiu Lin)是卡内基梅隆大学的博士研究生,由Deva Ramanan教授指导,专注于视觉-语言大模型的自动评估与优化。Zhiqiu Lin在CVPR、NeurIPS、ICML、ECCV等顶级会议上发表了十数篇论文,并曾荣获**论文提名和**短论文奖等。其研究成果在生成模型和多模态学习领域受到了学术界和工业界的广泛认可。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2F6678bc7ej00smijba007jd200hs00csg00hs00cs.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO36">Pengchuan Zhang是Meta AI(原Facebook AI研究院)的人工智能研究科学家,曾在微软研究院担任高级研究科学家。他的研究领域主要集中在深度学习、计算机视觉和多模态模型等方向,曾发表多项具有深远影响力的成果,例如AttnGAN、OSCAR、VinVL、Florence和GLIP等。他在顶级会议如CVPR、ICCV、NeurIPS等发表了大量高影响力论文,是计算机视觉和多模态模型领域的领军人物之一。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1106%2Fd09f050aj00smijbb00e3d200kd00jzg00kd00jz.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="359QGO39">Deva Ramanan教授是计算机视觉领域的国际知名学者,现任卡内基梅隆大学教授。他的研究涵盖计算机视觉、机器学习和人工智能领域,曾获得多项顶级学术荣誉,包括2009年的David Marr奖、2010年的PASCAL VOC终身成就奖、2012年的IEEE PAMI青年研究员奖、2012年《大众科学》评选的「十位杰出科学家」之一、2013年美国国家科学院Kavli Fellow、2018年和2024年的Longuet-Higgins奖,以及因其代表性工作(如COCO数据集)获得的Koenderink奖。此外,他的论文在CVPR、ECCV和ICCV上多次获得**论文提名及荣誉奖。他的研究成果对视觉识别、自动驾驶、和人机交互等应用产生了深远影响,是该领域极具影响力的科学家之一。</p><p id="359QGO3B">参考资料:</p><p id="359QGO3C">https://arxiv.org/abs/2404.01291</p><p id="359QGO3D">https://arxiv.org/abs/2406.13743</p>
讯享网

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/142568.html