华中科技大学破解AI绘画难题:让图像生成模型既快又好的秘密武器
吃瓜电子官网最新热点:华中科技大学破解AI绘画难题:让图像生成模型既快又好的秘密武器
更新时间: 浏览次数:1462
这项由华中科技大学王兴刚教授团队和独立研究者杨斌共同完成的研😡究,发表于2025年3月10日的arXiv预印本平台。感兴趣😆的读者可以通过https://github.com/hust😉vl/LightningDiT访问完整论文和相关代码。 😂 提到AI绘画,你肯定想到过那些令人惊叹的图像生成工具。但你😍可能不知道,在这些神奇工具的背后,研究人员一直面临着一个令人🎉头疼的问题:要想让AI画出更精细、更逼真的图片,就需要付出巨😁大的计算代价,训练时间会变得异常漫长。这就好比你想要做一道更🚀精致的菜肴,就必须准备更多的食材和更复杂的烹饪步骤,但这样一🙌来,整个烹饪过程就变得耗时费力。 华中科技大学的研究团😂队发现了这个矛盾的根源,并提出了一个巧妙的解决方案。他们的方😊法不仅让AI能够生成更高质量的图像,还大幅缩短了训练时间——🚀从原本需要1400个训练周期才能达到的效果,现在仅用64个周😆期就能实现,速度提升了惊人的21倍。 这项研究的核心在😆于解决了所谓的"重建与生成优化困境"。简单来说,就是在AI绘😆画系统中,负责理解和压缩图像信息的部分(我们可以把它想象成一🎉个图像"翻译员")和负责创作新图像的部分(相当于"画家")之😆间存在矛盾。当翻译员变得更精确时,画家却变得更难发挥;而当画🔥家表现良好时,翻译员的精度又会下降。 研究团队通过引入🙄"视觉基础模型对齐"的方法,就像给这个翻译员配备了一个经验丰🤯富的导师,帮助它在保持高精度的同时,也让画家能够更好地发挥创😆作能力。他们开发的VA-VAE(视觉基础模型对齐变分自编码器🙄)和LightningDiT系统,在ImageNet数据集上🎉达到了1.35的FID分数,创下了新的最佳记录。 一、🙌破解AI绘画系统的核心矛盾 要理解这个研究的重要性,我😢们首先需要了解AI绘画系统是如何工作的。整个系统就像一个协作🤩的艺术工作室,包含两个关键角色:一个是"图像翻译员"(技术上😂称为视觉标记器),负责将复杂的图像信息压缩成计算机更容易处理🚀的简化形式;另一个是"AI画家"(扩散模型),负责根据这些简🎉化信息创作出新的图像。 在理想情况下,翻译员应该尽可能😆准确地保留图像的所有重要细节,而画家则应该能够根据这些信息创😘作出高质量的作品。然而,现实却充满了矛盾。当研究人员试图让翻😉译员变得更精确——也就是增加其处理信息的维度时,他们发现了一😊个令人困惑的现象:翻译员确实能更好地重建原始图像,但画家的创😀作能力却明显下降了。 展开全文 这种现象在实验数😆据中表现得非常明显。当翻译员的特征维度从16维增加到32维时🙌,图像重建的质量确实提升了,重建FID分数从0.49降低到0😅.29(分数越低表示质量越好)。但是,画家的生成能力却从20😢.3分恶化到了28.7分。当维度进一步增加到64维时,这种矛💯盾变得更加尖锐:重建质量继续改善到0.18分,但生成质量却急🤯剧下降到45.8分。 这个问题的根源在于高维度的潜在空🤗间变得难以学习。研究团队通过可视化分析发现,当翻译员处理更高😆维度的信息时,其内部的数据分布变得更加集中和不均匀,就像原本🌟散布在整个房间里的物品突然聚集到了几个角落,留下大片空白区域🚀。这种不均匀的分布让画家难以在整个空间中自由创作,从而影响了😅生成质量。 面对这个困境,目前的主流解决方案通常采用两🥳种策略。第一种是大幅增加画家的规模和能力,让它强行适应翻译员🔥的高维度输出。这就好比雇佣一个超级厨师来应对更复杂的食谱,虽😎然最终能做出好菜,但成本极其昂贵。Stable Diffus🔥ion 3就采用了这种方法,通过使用更大的模型来处理高维度的💯视觉标记,但这需要巨大的计算资源和训练时间。 第二种策🙌略是故意限制翻译员的能力,降低其精度以换取画家的更好表现。这🤔相当于为了让厨师更容易操作而简化食谱,虽然烹饪过程变得容易,🤔但最终菜肴的精致程度也会受到影响。一些研究如Sana和W.A😂.L.T采用了这种方法,虽然训练速度更快,但生成图像的质量上😂限也相应降低。 华中科技大学的研究团队认识到,这两种策⭐略都是治标不治本的妥协方案。真正的解决之道是从根源上解决高维😡度潜在空间难以学习的问题,让翻译员在保持高精度的同时,也能为😂画家提供一个更易于创作的环境。 二、视觉基础模型对齐的😍巧妙设计 研究团队的解决方案灵感来源于对自回归生成模型😉的观察。在自回归模型中,当研究人员增加离散编码本的大小时,会⭐出现编码本利用率低的问题,这与连续VAE系统中的优化困境非常👍相似。通过分析不同维度下的潜在空间分布,他们发现高维度的标记😢器确实学习到了更集中、分布不均的表示,这正是问题的症结所在。😎 基于这个洞察,研究团队提出了一个创新的解决方案:让翻❤️译员在学习过程中参考已经训练成熟的视觉基础模型。这就像让一个😎刚入门的翻译员跟随一位经验丰富的导师学习,不仅要完成翻译任务😍,还要学习导师的思维方式和工作习惯。 这种方法的核心是🎉所谓的"视觉基础模型对齐损失"(VF Loss),它包含两个👍精心设计的组件。第一个组件是边际余弦相似性损失,它确保翻译员😁在每个空间位置上的输出都与基础模型的相应输出保持相似。这就像😴要求学徒在处理每个具体问题时都要参考导师的做法,确保局部的一😜致性。 第二个组件是边际距离矩阵相似性损失,它关注的是😅不同位置之间的相对关系。如果说第一个组件关注的是"点对点"的🤯对应关系,那么第二个组件关注的就是整体的"结构对应"关系。这🤯确保了翻译员不仅在具体细节上与导师保持一致,在整体的思维结构⭐上也要相互呼应。 这两个损失函数的设计非常巧妙。它们都🥳引入了"边际"的概念,也就是说,不要求翻译员完全复制基础模型🔥的行为,而是允许一定程度的偏差。这种设计既保证了对齐的效果,🌟又不会过度约束翻译员的学习能力。就像一个好导师既要指导学徒,🚀又要给学徒留下发挥创造力的空间。 为了平衡这个新增的对🚀齐损失与原有的重建损失,研究团队还设计了一个自适应权重机制。😍这个机制会自动调整不同损失函数的相对重要性,确保它们能够和谐🤩共存,而不是相互冲突。这就像在烹饪过程中自动调节不同调料的分😅量,确保最终的味道达到最佳平衡。 通过这种对齐方法,高🎉维度的翻译员学会了在一个更加均匀、结构化的潜在空间中工作。这👍个空间不仅保持了高精度的重建能力,还为画家提供了一个更容易导🙄航和创作的环境。实验结果显示,使用VF Loss的f16d3😡2翻译员不仅保持了优秀的重建性能(rFID=0.28),还大🤗幅提升了生成性能,将FID分数从30.90改善到了16.53😉。 三、LightningDiT:加速训练的架构优化 🤯 除了解决翻译员的问题,研究团队还对画家部分进行了全面优😉化,开发出了LightningDiT系统。这个系统的设计理念🤯是在不改变核心算法的前提下,通过一系列精心选择的优化策略来大🚀幅提升训练效率。 LightningDiT的优化可以分⭐为三个层面。在训练策略层面,研究团队采用了多项先进技术。他们🚀首先引入了校正流(Rectified Flow)技术,这种方⭐法能够让训练过程更加稳定和高效。然后,他们大胆地将批次大小增🥳加了4倍,并相应地调整了学习率,这种做法能够显著加快训练速度👍。此外,他们还调整了AdamW优化器的参数,将β2值从默认的❤️0.999调整为0.95,这个看似微小的改动却能带来显著的性😁能提升。 在扩散优化方面,研究团队引入了对数正态采样和🙌速度方向损失等技术。对数正态采样改变了训练过程中噪声时间步的🔥选择策略,让模型能够更好地学习不同噪声水平下的去噪任务。速度😢方向损失则是一种新的训练目标,它能够让模型更准确地预测去噪的😉方向,从而提高生成质量。 在模型架构层面,Lightn😅ingDiT采用了多项现代Transformer的优化技术。👏SwiGLU激活函数替代了传统的激活函数,提供了更好的表达能😅力。RMS归一化技术替代了传统的层归一化,在保持稳定性的同时🌟提高了计算效率。旋转位置编码(RoPE)的引入则让模型能够更👍好地理解图像中不同位置之间的关系。 这些优化策略的组合😡效果是惊人的。在使用标准SD-VAE的情况下,Lightni😍ngDiT在80个训练周期内就达到了FID=7.13的成绩,😘这仅相当于原始DiT所需训练量的6%。当结合VA-VAE使用😆时,效果更加显著,在相同的训练时间内,FID分数进一步降低到🥳4.29。 值得注意的是,这些优化策略并非简单的堆叠,😂而是经过精心调配的组合。研究团队发现,某些看似有用的技术在组😁合使用时可能会产生负面影响。例如,梯度裁剪在单独使用时效果不⭐错,但与对数正态采样和速度方向损失组合使用时反而会降低性能。😉这提醒我们,在系统优化中,整体的协调比单个技术的先进性更加重😆要。 四、突破性实验结果与性能分析 研究团队在I🤗mageNet 256×256数据集上进行了全面的实验验证,👏结果令人振奋。使用VA-VAE和LightningDiT的完🎉整系统在仅仅64个训练周期内就达到了FID=2.11的优秀成😜绩,这相当于原始DiT达到类似性能所需时间的1/21,实现了👏超过21倍的收敛加速。 当训练时间延长到800个周期时🌟,该系统达到了FID=1.35的最先进性能,在ImageNe❤️t生成任务上创造了新的记录。更令人印象深刻的是,即使在不使用😆分类器自由引导(CFG)的情况下,系统仍然能够达到FID=2🥳.17的优秀表现,这超过了许多使用CFG的现有方法。 😴为了深入理解VF Loss的工作机制,研究团队进行了详细的消😴融实验。他们发现,VF Loss对高维度标记器的改善效果特别😍显著。对于f16d32规格的标记器,使用DINOv2作为基础🤔模型的VF Loss将生成FID从22.62改善到了15.8👍2,提升幅度达到30%。对于更高维度的f16d64标记器,改🤩善效果更加明显,FID从36.83降低到了24.00,提升幅❤️度超过35%。 有趣的是,VF Loss对低维度标记器😆的影响相对较小。对于常用的f16d16标记器,VF Loss🥳的改善效果并不显著,这与研究团队的理论预期完全一致。这进一步😍证实了他们的核心观点:优化困境主要存在于高维度的潜在空间中,🙄而VF Loss正是针对这个问题的精准解决方案。 在收🥳敛速度方面,实验结果同样令人惊喜。对于f16d32标记器,使😂用VF Loss的系统收敛速度比baseline快了2.54😁倍;对于f16d64标记器,加速比更是达到了2.76倍。这种💯加速不仅仅是时间上的节省,更重要的是大幅降低了实验成本,让更😀多研究团队能够负担得起高质量的图像生成研究。 研究团队🙄还验证了不同视觉基础模型的对齐效果。他们测试了DINOv2、👍MAE、SAM和CLIP等多种基础模型,发现自监督学习模型(👍如DINOv2和MAE)的效果普遍优于其他类型的模型。其中,👍DINOv2的效果最佳,这可能是因为它在大规模无监督数据上学😢习到了更加通用和鲁棒的视觉表示。 通过t-SNE可视化🤗分析,研究团队直观地展示了VF Loss的工作原理。可视化结😁果显示,原始高维度标记器学习到的潜在空间分布确实存在不均匀和🙌聚集的问题,而使用VF Loss后,分布变得更加均匀和分散,🤩这正解释了为什么画家能够在这样的空间中更好地发挥创作能力。 🔥 五、技术细节与实现要点 为了确保研究结果的可重现❤️性,研究团队提供了详细的实现细节。在视觉标记器的训练中,他们😡采用了VQGAN的网络结构,但移除了量化模块,改用KL散度来🤔约束连续的潜在空间。为了支持多节点训练,学习率被设定为1e-🤯4,全局批次大小为256。 VF Loss中的超参数设👏置经过了精心调优。边际参数m1设为0.5,m2设为0.25,🤯这些数值在不同的基础模型下可能需要微调以获得最佳效果。超参数😍whyper设为0.1,这个权重通过自适应机制与重建损失保持😅平衡。 在扩散模型训练方面,研究团队使用了改进的DiT😆架构,将补丁大小设为1,确保整个系统的下采样因子为16。这种🙌设计让所有的压缩工作都由VAE完成,与Sana等recent❤️工作保持一致。训练过程采用了torch.compile和bf🌟loat16精度来加速计算,同时使用了多项现代优化技术的组合😊。 采样过程采用了250步的Euler积分器,确保与之😴前工作的公平比较。为了进一步提升采样质量,研究团队还采用了C🤯FG区间和时间步偏移等技术,这些技术在不增加计算成本的情况下😜能够显著改善生成质量。 研究团队特别强调了他们方法的通👏用性和易用性。VF Loss被设计为一个即插即用的模块,可以😊轻松集成到现有的VAE训练流程中,无需修改模型架构或训练管道🤯的其他部分。这大大降低了技术采用的门槛,让其他研究团队能够方🤯便地复现和扩展这项工作。 六、深度机制分析与理论洞察 😂 为了更深入地理解VF Loss的工作机制,研究团队从理🎉论层面分析了潜在空间分布的重要性。他们使用核密度估计(KDE😍)计算了不同标记器学习到的特征分布的均匀性指标,包括变异系数😂、基尼系数和归一化熵等。 分析结果显示,潜在空间分布的🙄均匀性与生成性能之间存在强相关关系。使用VF Loss的标记😢器不仅在变异系数上表现更好(从0.263降低到0.178),👍在基尼系数上也有显著改善(从0.145降低到0.096)。归😁一化熵的提升则表明分布变得更加平衡,这为扩散模型提供了更好的❤️学习环境。 这种相关性不仅在定量指标上得到体现,在可视😁化分析中也非常明显。通过t-SNE降维可视化,研究团队清晰地❤️展示了VF Loss如何将原本聚集在少数区域的特征点重新分布💯到整个空间中,形成更加均匀和连续的分布模式。 从损失函🥳数设计的角度来看,边际机制的引入是至关重要的创新。如果没有边❤️际,对齐损失会过度约束标记器的学习,可能导致模式崩溃或表达能🚀力下降。边际的存在为标记器提供了必要的学习自由度,让它能够在😘保持与基础模型对齐的同时,还能适应重建任务的具体需求。 🥳 自适应权重机制的设计也体现了研究团队的深刻洞察。通过计算不😉同损失函数在编码器最后一层的梯度比值,该机制能够自动平衡重建👏目标和对齐目标的重要性。这种自适应性不仅简化了超参数调优,还😜提高了方法在不同设置下的鲁棒性。 七、广泛的对比实验与😜性能基准 研究团队进行了与现有方法的全面对比,涵盖了自😢回归生成和潜在扩散两大类方法。在自回归方法中,他们的系统在多😀个指标上都取得了竞争优势。与MaskGIT相比,虽然Mask🚀GIT的重建FID稍好(2.28 vs 2.35),但在生成🎉质量上存在明显差距。与最新的MAR方法相比,他们的系统在训练😘效率上有显著优势,仅需800个周期就超越了MAR在800个周🤯期下的表现。 在潜在扩散方法中,对比结果更加明显。与原😂始DiT相比,他们的LightningDiT在仅用64个周期😜的情况下就达到了FID=2.11,而原始DiT需要1400个😊周期才能达到类似的性能水平。与SiT的对比显示,即使SiT使😎用了校正流技术,他们的系统在训练效率和最终性能上都有显著优势🌟。 特别值得注意的是与REPA和MDT等最新方法的对比😆。REPA同样使用视觉基础模型来辅助训练,但其方法是在扩散模❤️型训练过程中引入额外的对齐损失,这会增加训练成本。相比之下,😆VA-VAE的对齐只在标记器训练阶段进行,不会增加扩散模型的👍训练开销,因此在效率上更有优势。 MDT通过掩码图像建😊模来加速收敛,虽然在训练时间上有一定优势,但需要额外的预训练😜阶段和更复杂的训练流程。相比之下,VA-VAE+Lightn🙌ingDiT的组合更加简洁和直接,在保持高效率的同时避免了额👏外的复杂性。 在不同模型规模下的扩展性测试中,研究团队😎验证了他们方法的可扩展性。从0.1B到1.6B参数的模型中,🤗使用VA-VAE的系统都表现出了优越的性能。特别是在大规模模😉型中,VA-VAE的优势更加明显,这表明该方法不仅在小规模实😍验中有效,在实际的大规模应用中同样具有价值。 消融实验😢的结果进一步验证了设计选择的合理性。当移除边际余弦相似性损失😁时,生成FID从15.82恶化到21.87;当移除边际距离矩😘阵相似性损失时,FID恶化到17.74。这些结果表明两个损失😀组件都是必要的,它们各自发挥着不可替代的作用。 八、实😜际应用价值与未来展望 这项研究的价值不仅仅体现在学术指🎉标的提升上,更重要的是它为实际应用提供了切实可行的解决方案。😢21倍的训练加速意味着原本需要数周甚至数月的实验现在可以在数😉天内完成,这大大降低了研究门槛,让更多团队能够参与到高质量图❤️像生成的研究中来。 从产业应用的角度来看,这种效率提升😴直接转化为成本节约。对于需要训练定制化图像生成模型的公司来说🙄,训练时间的大幅缩短意味着更快的产品迭代周期和更低的开发成本😊。这种改进可能会加速AI图像生成技术在更多垂直领域的应用。 👏 更重要的是,这项研究提供的不仅仅是一个具体的技术方案,😍更是一种解决优化困境的思路。视觉基础模型对齐的概念可以扩展到⭐其他模态和任务中,为解决类似的优化问题提供了新的思路。这种"💯借助已有知识指导新学习"的思想在人工智能的其他领域也有广泛的😉应用前景。 研究团队已经开源了完整的代码和预训练模型,🎉这进一步降低了技术采用的门槛。研究社区可以在此基础上进行进一😍步的改进和扩展,推动整个领域的快速发展。开源策略还有助于验证🎉研究结果的可重现性,提高科学研究的透明度和可信度。 从😁技术发展趋势来看,这项工作可能会影响未来图像生成系统的设计思😅路。随着计算资源变得更加宝贵,如何在保持高质量的同时提高训练😢效率将成为一个越来越重要的研究方向。VA-VAE提供的解决思😂路可能会被更多研究者采用和改进。 结合当前多模态大模型❤️的发展趋势,这种高效的图像生成技术可能会成为更大规模AI系统🚀的重要组成部分。当图像生成能够以更低的成本实现更高的质量时,😉我们可能会看到更多创新的应用场景出现,从内容创作到科学研究,😊从教育培训到娱乐游戏。 说到底,这项研究解决的是一个困❤️扰研究界多年的根本性问题。通过巧妙地利用已有的视觉知识来指导😀新的学习过程,华中科技大学的团队不仅实现了技术突破,更为我们🤔展示了如何在人工智能研究中更好地利用已有成果。这种思路启发我😴们,真正的创新往往不是从零开始,而是在深入理解现有知识基础上🙄的智慧重组。 这项工作的成功也提醒我们,在追求更强大A😊I能力的同时,效率和可持续性同样重要。在一个计算资源日益宝贵😡的时代,如何用更少的资源做更多的事情,可能是决定AI技术能否❤️广泛普及的关键因素。华中科技大学团队提供的解决方案,在这个方⭐向上迈出了坚实的一步。 Q&A Q1:VA-VA⭐E是什么?它是如何解决AI绘画中的优化困境的? A:V😎A-VAE是视觉基础模型对齐变分自编码器的缩写,是华中科技大😍学团队开发的一种新型图像压缩技术。它通过让图像"翻译员"(V🙄AE编码器)在学习时参考已经训练成熟的视觉基础模型(如DIN🚀Ov2),解决了高维度下重建质量提升但生成质量下降的矛盾。就😴像给新手翻译员配备了经验丰富的导师,既保持了翻译的准确性,又😅让后续的创作过程更加顺畅。 Q2:LightningD💯iT为什么能实现21倍的训练加速? A:Lightni🤩ngDiT通过三个层面的优化实现了显著加速:训练策略优化(如😍增大批次大小、调整学习率、使用校正流技术)、扩散优化(如对数😀正态采样、速度方向损失)、以及架构改进(如SwiGLU激活函🤩数、RMS归一化、旋转位置编码)。这些优化策略的精心组合,加😜上VA-VAE提供的更易学习的潜在空间,使得原本需要1400🌟个训练周期才能达到的效果现在只需64个周期就能实现。 😉Q3:这项技术的实际应用价值有哪些?普通用户什么时候能体验到😂? A:这项技术的最直接价值是大幅降低了AI图像生成模🤗型的训练成本和时间,这意味着更多公司和研究团队能够负担得起高💯质量的图像生成研究。对普通用户而言,这将推动AI绘画工具变得😀更加普及和高质量。由于研究团队已经开源了完整代码,预计在未来❤️几个月到一年内,基于这项技术的商业产品和开源工具就会开始出现😢。返回搜狐,查看更多
北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)
天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)
河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)
唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)
秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)
邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)
邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)
保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)
张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)
承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)
沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)
规模2520亿澳元的澳大利亚未来基金宣布,已适度减持美国资产👍转投德日,同时增持包括黄金在内的大宗商品,并称将密切关注特朗😂普对美联储的施压行动。 澳大利亚规模达2520亿澳元(🙄约合1660亿美元)的主权财富基金——未来基金(Future❤️ Fund)表示,已削减在美国市场的敞口,并正密切关注美国总😘统特朗普对美联储的施压行动。 未来基金宣布其截至6月的🤗年度回报率达12.2%,是政府设定的6.1%的目标的两倍。首👏席执行官拉斐尔·阿恩特(Raphael Arndt)于周二接🤗受电话采访时告诉记者,美国资产仍是该基金最大持仓类别,但市场😁波动和政治不确定性已促使其削减了美国资产敞口。 阿恩特❤️指出,此次“适度减持美国市场资产”是“为实现投资组合多元化而👏进行的调整”,目的是将资金转向德国、日本等估值相对更具吸引力😁的市场。 阿恩特说:“我们最感兴趣的地区是欧洲大陆,尤🙌其是德国,该国政府已经宣布了一些刺激和投资经济的措施....🎉..多年来,我们一直在把资金转移到日本,这两个市场似乎都比美🤯国或澳大利亚股市便宜。” 阿恩特认为,特朗普对美联储的😡一系列攻击——包括试图解雇美联储理事莉萨·库克(Lisa C😎ook)、呼吁降息等,目前尚未影响到美联储的独立性。 😴“我们正密切关注此事。我认为这一问题至关重要,但目前来看,美😅联储似乎仍在独立运作,”阿恩特表示,“这是当前极具关注度的话😎题——不仅我们在关注,许多对冲基金经理现在也在重点关注。” 🔥 此前,澳大利亚主要养老金机构对此事持不同观点:澳大利亚❤️超级养老金(AustralianSuper)的首席投资官上周😂淡化了相关担忧,而澳大利亚退休信托基金(Australian🎉 Retirement Trust)则部分因特朗普对美联储的⭐施压,已减持美国国债持仓。 根据周二发布的最新数据,未🙄来基金约三分之一的投资组合配置于发达市场和新兴市场股票,其中👍有651.3亿澳元投资于发达市场,占该基金总投资的四分之一。😡这一数字高于2024年同期的468.3亿澳元。该基金本年度1😁2.2%的回报率,超过了上一年度9.1%的收益水平。 😎阿恩特指出,尽管市场存在波动,股票资产仍实现了稳健回报。他补🙌充称,基础设施类资产表现“异常出色”,对冲基金投资组合也录得🔥强劲收益。 阿恩特还表示,未来基金已增持澳元计价资产,🙄以“应对通胀和汇率波动风险”。 澳大利亚政府去年更新了👏未来基金的投资授权,要求该基金考虑加大对住房、能源、基础设施🚀项目等“国家重点领域”的投资。 阿恩特称,未来基金还在😡“多元化配置发达市场货币及大宗商品(包括黄金)的敞口”。返回😢搜狐,查看更多
推荐阅读
撤县并省!猛砸铁饭碗,开始了
6055
上海一对95后夫妻,在厕所离奇死亡,谁料,警方调查后大吃一惊:这种死法很少见
8226
雅江下游超大型水电站开建了,但“红旗河”却没戏了!
1421
董莉莉,追求低级趣味
3822
乌克兰已经突破了人类的底线,这种做法只能进一步刺激俄罗斯,让自己遭到更严重的毒打!
7546
开始“明抢”?北约妄想收回中国在欧基建,王毅连喊3个“不”!
3300
朱拉尼逃跑,高层遭斩首,电视台被叛军占领,国家刚到手就丢了?
9140
俄军在乌克兰推进速度越来越快!美媒:俄军控制的领土在一月内创造新纪录
4458
赖清德提议“有条件统一”,国台办正式给出回应,邀两岸共同协商
5256
俄军找到乌克兰指挥中心,或有1500人
3778
擦亮眼睛,警惕有一伙人想要改变党与国家给“十年文革”的定性
4871
福建女子发现男友不会唱国歌,怀疑其是间谍,当即将男友举报
6186
9万平方公里的藏南争端:中印各实控多少?边境争端现状大揭秘!
9652
允许永久划界后,印外长态度一夜大变,中方早有准备,莫迪已登机离国
4496
打到现在,果敢同盟军摊牌:我们是汉族,却要被赶出祖辈生活之地
6405
欧洲现在才想明白,中国是天然的超级大国,处处都强美国无从下手
7268
他曾是武警出名的副司令,去广东后大肆敛财,升官仅一年就落马
6768
射精一次会减寿?男性一生最多只能排6000次精?看完心里有数
8020
回国后,我问女儿“中国好还是美国好”,她的回答让我失眠了...
7762
中美俄耕地面积差距太大:美23.7亿亩,俄18.3亿亩,中国令人意外
5864
投资1.2万亿,雅鲁藏布江水电站有多强?相比三峡大坝如何?
8975