华中科技大学破解AI绘画难题:让图像生成模型既快又好的秘密武器
吃瓜电子官网最新热点:华中科技大学破解AI绘画难题:让图像生成模型既快又好的秘密武器
更新时间: 浏览次数:8203
这项由华中科技大学王兴刚教授团队和独立研究者杨斌共同完成的研😁究,发表于2025年3月10日的arXiv预印本平台。感兴趣🤔的读者可以通过https://github.com/hust😁vl/LightningDiT访问完整论文和相关代码。 😜 提到AI绘画,你肯定想到过那些令人惊叹的图像生成工具。但你🔥可能不知道,在这些神奇工具的背后,研究人员一直面临着一个令人😂头疼的问题:要想让AI画出更精细、更逼真的图片,就需要付出巨😢大的计算代价,训练时间会变得异常漫长。这就好比你想要做一道更💯精致的菜肴,就必须准备更多的食材和更复杂的烹饪步骤,但这样一👏来,整个烹饪过程就变得耗时费力。 华中科技大学的研究团😢队发现了这个矛盾的根源,并提出了一个巧妙的解决方案。他们的方⭐法不仅让AI能够生成更高质量的图像,还大幅缩短了训练时间——🔥从原本需要1400个训练周期才能达到的效果,现在仅用64个周🤩期就能实现,速度提升了惊人的21倍。 这项研究的核心在🙄于解决了所谓的"重建与生成优化困境"。简单来说,就是在AI绘🙄画系统中,负责理解和压缩图像信息的部分(我们可以把它想象成一😉个图像"翻译员")和负责创作新图像的部分(相当于"画家")之😴间存在矛盾。当翻译员变得更精确时,画家却变得更难发挥;而当画🌟家表现良好时,翻译员的精度又会下降。 研究团队通过引入🌟"视觉基础模型对齐"的方法,就像给这个翻译员配备了一个经验丰🙌富的导师,帮助它在保持高精度的同时,也让画家能够更好地发挥创🙄作能力。他们开发的VA-VAE(视觉基础模型对齐变分自编码器🙄)和LightningDiT系统,在ImageNet数据集上😢达到了1.35的FID分数,创下了新的最佳记录。 一、⭐破解AI绘画系统的核心矛盾 要理解这个研究的重要性,我🙄们首先需要了解AI绘画系统是如何工作的。整个系统就像一个协作🌟的艺术工作室,包含两个关键角色:一个是"图像翻译员"(技术上😀称为视觉标记器),负责将复杂的图像信息压缩成计算机更容易处理⭐的简化形式;另一个是"AI画家"(扩散模型),负责根据这些简😢化信息创作出新的图像。 在理想情况下,翻译员应该尽可能🎉准确地保留图像的所有重要细节,而画家则应该能够根据这些信息创🙌作出高质量的作品。然而,现实却充满了矛盾。当研究人员试图让翻😆译员变得更精确——也就是增加其处理信息的维度时,他们发现了一🙄个令人困惑的现象:翻译员确实能更好地重建原始图像,但画家的创😴作能力却明显下降了。 展开全文 这种现象在实验数😀据中表现得非常明显。当翻译员的特征维度从16维增加到32维时❤️,图像重建的质量确实提升了,重建FID分数从0.49降低到0😍.29(分数越低表示质量越好)。但是,画家的生成能力却从20😎.3分恶化到了28.7分。当维度进一步增加到64维时,这种矛🔥盾变得更加尖锐:重建质量继续改善到0.18分,但生成质量却急😀剧下降到45.8分。 这个问题的根源在于高维度的潜在空🌟间变得难以学习。研究团队通过可视化分析发现,当翻译员处理更高😆维度的信息时,其内部的数据分布变得更加集中和不均匀,就像原本👍散布在整个房间里的物品突然聚集到了几个角落,留下大片空白区域❤️。这种不均匀的分布让画家难以在整个空间中自由创作,从而影响了💯生成质量。 面对这个困境,目前的主流解决方案通常采用两🤗种策略。第一种是大幅增加画家的规模和能力,让它强行适应翻译员😉的高维度输出。这就好比雇佣一个超级厨师来应对更复杂的食谱,虽🤯然最终能做出好菜,但成本极其昂贵。Stable Diffus❤️ion 3就采用了这种方法,通过使用更大的模型来处理高维度的🙌视觉标记,但这需要巨大的计算资源和训练时间。 第二种策🌟略是故意限制翻译员的能力,降低其精度以换取画家的更好表现。这😁相当于为了让厨师更容易操作而简化食谱,虽然烹饪过程变得容易,🌟但最终菜肴的精致程度也会受到影响。一些研究如Sana和W.A😎.L.T采用了这种方法,虽然训练速度更快,但生成图像的质量上😁限也相应降低。 华中科技大学的研究团队认识到,这两种策🚀略都是治标不治本的妥协方案。真正的解决之道是从根源上解决高维🤔度潜在空间难以学习的问题,让翻译员在保持高精度的同时,也能为😡画家提供一个更易于创作的环境。 二、视觉基础模型对齐的👏巧妙设计 研究团队的解决方案灵感来源于对自回归生成模型🙌的观察。在自回归模型中,当研究人员增加离散编码本的大小时,会😢出现编码本利用率低的问题,这与连续VAE系统中的优化困境非常😴相似。通过分析不同维度下的潜在空间分布,他们发现高维度的标记😀器确实学习到了更集中、分布不均的表示,这正是问题的症结所在。😆 基于这个洞察,研究团队提出了一个创新的解决方案:让翻😂译员在学习过程中参考已经训练成熟的视觉基础模型。这就像让一个😆刚入门的翻译员跟随一位经验丰富的导师学习,不仅要完成翻译任务🤯,还要学习导师的思维方式和工作习惯。 这种方法的核心是😢所谓的"视觉基础模型对齐损失"(VF Loss),它包含两个🚀精心设计的组件。第一个组件是边际余弦相似性损失,它确保翻译员😴在每个空间位置上的输出都与基础模型的相应输出保持相似。这就像🙄要求学徒在处理每个具体问题时都要参考导师的做法,确保局部的一😍致性。 第二个组件是边际距离矩阵相似性损失,它关注的是😴不同位置之间的相对关系。如果说第一个组件关注的是"点对点"的😂对应关系,那么第二个组件关注的就是整体的"结构对应"关系。这😘确保了翻译员不仅在具体细节上与导师保持一致,在整体的思维结构😊上也要相互呼应。 这两个损失函数的设计非常巧妙。它们都⭐引入了"边际"的概念,也就是说,不要求翻译员完全复制基础模型💯的行为,而是允许一定程度的偏差。这种设计既保证了对齐的效果,🥳又不会过度约束翻译员的学习能力。就像一个好导师既要指导学徒,😢又要给学徒留下发挥创造力的空间。 为了平衡这个新增的对🤯齐损失与原有的重建损失,研究团队还设计了一个自适应权重机制。😉这个机制会自动调整不同损失函数的相对重要性,确保它们能够和谐😊共存,而不是相互冲突。这就像在烹饪过程中自动调节不同调料的分😆量,确保最终的味道达到最佳平衡。 通过这种对齐方法,高🙄维度的翻译员学会了在一个更加均匀、结构化的潜在空间中工作。这🌟个空间不仅保持了高精度的重建能力,还为画家提供了一个更容易导😆航和创作的环境。实验结果显示,使用VF Loss的f16d3😉2翻译员不仅保持了优秀的重建性能(rFID=0.28),还大😁幅提升了生成性能,将FID分数从30.90改善到了16.53😅。 三、LightningDiT:加速训练的架构优化 😴 除了解决翻译员的问题,研究团队还对画家部分进行了全面优🔥化,开发出了LightningDiT系统。这个系统的设计理念😘是在不改变核心算法的前提下,通过一系列精心选择的优化策略来大🎉幅提升训练效率。 LightningDiT的优化可以分😂为三个层面。在训练策略层面,研究团队采用了多项先进技术。他们🌟首先引入了校正流(Rectified Flow)技术,这种方😂法能够让训练过程更加稳定和高效。然后,他们大胆地将批次大小增🎉加了4倍,并相应地调整了学习率,这种做法能够显著加快训练速度👍。此外,他们还调整了AdamW优化器的参数,将β2值从默认的🌟0.999调整为0.95,这个看似微小的改动却能带来显著的性😉能提升。 在扩散优化方面,研究团队引入了对数正态采样和🙌速度方向损失等技术。对数正态采样改变了训练过程中噪声时间步的💯选择策略,让模型能够更好地学习不同噪声水平下的去噪任务。速度🚀方向损失则是一种新的训练目标,它能够让模型更准确地预测去噪的👍方向,从而提高生成质量。 在模型架构层面,Lightn🙌ingDiT采用了多项现代Transformer的优化技术。🤗SwiGLU激活函数替代了传统的激活函数,提供了更好的表达能😆力。RMS归一化技术替代了传统的层归一化,在保持稳定性的同时😀提高了计算效率。旋转位置编码(RoPE)的引入则让模型能够更😡好地理解图像中不同位置之间的关系。 这些优化策略的组合😆效果是惊人的。在使用标准SD-VAE的情况下,Lightni🤩ngDiT在80个训练周期内就达到了FID=7.13的成绩,🌟这仅相当于原始DiT所需训练量的6%。当结合VA-VAE使用🙌时,效果更加显著,在相同的训练时间内,FID分数进一步降低到🌟4.29。 值得注意的是,这些优化策略并非简单的堆叠,😁而是经过精心调配的组合。研究团队发现,某些看似有用的技术在组😉合使用时可能会产生负面影响。例如,梯度裁剪在单独使用时效果不😂错,但与对数正态采样和速度方向损失组合使用时反而会降低性能。🤗这提醒我们,在系统优化中,整体的协调比单个技术的先进性更加重😆要。 四、突破性实验结果与性能分析 研究团队在I💯mageNet 256×256数据集上进行了全面的实验验证,🤯结果令人振奋。使用VA-VAE和LightningDiT的完😘整系统在仅仅64个训练周期内就达到了FID=2.11的优秀成😆绩,这相当于原始DiT达到类似性能所需时间的1/21,实现了😜超过21倍的收敛加速。 当训练时间延长到800个周期时👍,该系统达到了FID=1.35的最先进性能,在ImageNe😴t生成任务上创造了新的记录。更令人印象深刻的是,即使在不使用👏分类器自由引导(CFG)的情况下,系统仍然能够达到FID=2😀.17的优秀表现,这超过了许多使用CFG的现有方法。 ⭐为了深入理解VF Loss的工作机制,研究团队进行了详细的消🚀融实验。他们发现,VF Loss对高维度标记器的改善效果特别🎉显著。对于f16d32规格的标记器,使用DINOv2作为基础😎模型的VF Loss将生成FID从22.62改善到了15.8🤗2,提升幅度达到30%。对于更高维度的f16d64标记器,改😜善效果更加明显,FID从36.83降低到了24.00,提升幅😂度超过35%。 有趣的是,VF Loss对低维度标记器😁的影响相对较小。对于常用的f16d16标记器,VF Loss😁的改善效果并不显著,这与研究团队的理论预期完全一致。这进一步😴证实了他们的核心观点:优化困境主要存在于高维度的潜在空间中,🔥而VF Loss正是针对这个问题的精准解决方案。 在收🚀敛速度方面,实验结果同样令人惊喜。对于f16d32标记器,使🤩用VF Loss的系统收敛速度比baseline快了2.54😉倍;对于f16d64标记器,加速比更是达到了2.76倍。这种👏加速不仅仅是时间上的节省,更重要的是大幅降低了实验成本,让更😆多研究团队能够负担得起高质量的图像生成研究。 研究团队👏还验证了不同视觉基础模型的对齐效果。他们测试了DINOv2、😊MAE、SAM和CLIP等多种基础模型,发现自监督学习模型(🙄如DINOv2和MAE)的效果普遍优于其他类型的模型。其中,🔥DINOv2的效果最佳,这可能是因为它在大规模无监督数据上学😜习到了更加通用和鲁棒的视觉表示。 通过t-SNE可视化😅分析,研究团队直观地展示了VF Loss的工作原理。可视化结🌟果显示,原始高维度标记器学习到的潜在空间分布确实存在不均匀和👏聚集的问题,而使用VF Loss后,分布变得更加均匀和分散,🔥这正解释了为什么画家能够在这样的空间中更好地发挥创作能力。 🤔 五、技术细节与实现要点 为了确保研究结果的可重现😀性,研究团队提供了详细的实现细节。在视觉标记器的训练中,他们🌟采用了VQGAN的网络结构,但移除了量化模块,改用KL散度来🙄约束连续的潜在空间。为了支持多节点训练,学习率被设定为1e-😡4,全局批次大小为256。 VF Loss中的超参数设💯置经过了精心调优。边际参数m1设为0.5,m2设为0.25,😡这些数值在不同的基础模型下可能需要微调以获得最佳效果。超参数😂whyper设为0.1,这个权重通过自适应机制与重建损失保持😡平衡。 在扩散模型训练方面,研究团队使用了改进的DiT🙄架构,将补丁大小设为1,确保整个系统的下采样因子为16。这种😀设计让所有的压缩工作都由VAE完成,与Sana等recent😘工作保持一致。训练过程采用了torch.compile和bf🙄loat16精度来加速计算,同时使用了多项现代优化技术的组合😉。 采样过程采用了250步的Euler积分器,确保与之🤗前工作的公平比较。为了进一步提升采样质量,研究团队还采用了C🤗FG区间和时间步偏移等技术,这些技术在不增加计算成本的情况下😘能够显著改善生成质量。 研究团队特别强调了他们方法的通🤩用性和易用性。VF Loss被设计为一个即插即用的模块,可以🙌轻松集成到现有的VAE训练流程中,无需修改模型架构或训练管道😎的其他部分。这大大降低了技术采用的门槛,让其他研究团队能够方😢便地复现和扩展这项工作。 六、深度机制分析与理论洞察 😂 为了更深入地理解VF Loss的工作机制,研究团队从理😡论层面分析了潜在空间分布的重要性。他们使用核密度估计(KDE🥳)计算了不同标记器学习到的特征分布的均匀性指标,包括变异系数😍、基尼系数和归一化熵等。 分析结果显示,潜在空间分布的😉均匀性与生成性能之间存在强相关关系。使用VF Loss的标记😂器不仅在变异系数上表现更好(从0.263降低到0.178),🚀在基尼系数上也有显著改善(从0.145降低到0.096)。归😂一化熵的提升则表明分布变得更加平衡,这为扩散模型提供了更好的🥳学习环境。 这种相关性不仅在定量指标上得到体现,在可视😊化分析中也非常明显。通过t-SNE降维可视化,研究团队清晰地🤯展示了VF Loss如何将原本聚集在少数区域的特征点重新分布🔥到整个空间中,形成更加均匀和连续的分布模式。 从损失函😘数设计的角度来看,边际机制的引入是至关重要的创新。如果没有边⭐际,对齐损失会过度约束标记器的学习,可能导致模式崩溃或表达能😍力下降。边际的存在为标记器提供了必要的学习自由度,让它能够在🤯保持与基础模型对齐的同时,还能适应重建任务的具体需求。 😅 自适应权重机制的设计也体现了研究团队的深刻洞察。通过计算不🎉同损失函数在编码器最后一层的梯度比值,该机制能够自动平衡重建😍目标和对齐目标的重要性。这种自适应性不仅简化了超参数调优,还⭐提高了方法在不同设置下的鲁棒性。 七、广泛的对比实验与🔥性能基准 研究团队进行了与现有方法的全面对比,涵盖了自😡回归生成和潜在扩散两大类方法。在自回归方法中,他们的系统在多💯个指标上都取得了竞争优势。与MaskGIT相比,虽然Mask🎉GIT的重建FID稍好(2.28 vs 2.35),但在生成😢质量上存在明显差距。与最新的MAR方法相比,他们的系统在训练🤩效率上有显著优势,仅需800个周期就超越了MAR在800个周😊期下的表现。 在潜在扩散方法中,对比结果更加明显。与原😢始DiT相比,他们的LightningDiT在仅用64个周期❤️的情况下就达到了FID=2.11,而原始DiT需要1400个😎周期才能达到类似的性能水平。与SiT的对比显示,即使SiT使😘用了校正流技术,他们的系统在训练效率和最终性能上都有显著优势😡。 特别值得注意的是与REPA和MDT等最新方法的对比😆。REPA同样使用视觉基础模型来辅助训练,但其方法是在扩散模😍型训练过程中引入额外的对齐损失,这会增加训练成本。相比之下,🚀VA-VAE的对齐只在标记器训练阶段进行,不会增加扩散模型的❤️训练开销,因此在效率上更有优势。 MDT通过掩码图像建🤯模来加速收敛,虽然在训练时间上有一定优势,但需要额外的预训练🌟阶段和更复杂的训练流程。相比之下,VA-VAE+Lightn😢ingDiT的组合更加简洁和直接,在保持高效率的同时避免了额🚀外的复杂性。 在不同模型规模下的扩展性测试中,研究团队🤔验证了他们方法的可扩展性。从0.1B到1.6B参数的模型中,❤️使用VA-VAE的系统都表现出了优越的性能。特别是在大规模模😁型中,VA-VAE的优势更加明显,这表明该方法不仅在小规模实🤗验中有效,在实际的大规模应用中同样具有价值。 消融实验👍的结果进一步验证了设计选择的合理性。当移除边际余弦相似性损失😡时,生成FID从15.82恶化到21.87;当移除边际距离矩😀阵相似性损失时,FID恶化到17.74。这些结果表明两个损失😜组件都是必要的,它们各自发挥着不可替代的作用。 八、实😀际应用价值与未来展望 这项研究的价值不仅仅体现在学术指🙌标的提升上,更重要的是它为实际应用提供了切实可行的解决方案。😎21倍的训练加速意味着原本需要数周甚至数月的实验现在可以在数😘天内完成,这大大降低了研究门槛,让更多团队能够参与到高质量图💯像生成的研究中来。 从产业应用的角度来看,这种效率提升🎉直接转化为成本节约。对于需要训练定制化图像生成模型的公司来说😍,训练时间的大幅缩短意味着更快的产品迭代周期和更低的开发成本😊。这种改进可能会加速AI图像生成技术在更多垂直领域的应用。 🎉 更重要的是,这项研究提供的不仅仅是一个具体的技术方案,😍更是一种解决优化困境的思路。视觉基础模型对齐的概念可以扩展到😡其他模态和任务中,为解决类似的优化问题提供了新的思路。这种"👍借助已有知识指导新学习"的思想在人工智能的其他领域也有广泛的😆应用前景。 研究团队已经开源了完整的代码和预训练模型,😍这进一步降低了技术采用的门槛。研究社区可以在此基础上进行进一🙄步的改进和扩展,推动整个领域的快速发展。开源策略还有助于验证🤗研究结果的可重现性,提高科学研究的透明度和可信度。 从😊技术发展趋势来看,这项工作可能会影响未来图像生成系统的设计思😡路。随着计算资源变得更加宝贵,如何在保持高质量的同时提高训练🤔效率将成为一个越来越重要的研究方向。VA-VAE提供的解决思🤯路可能会被更多研究者采用和改进。 结合当前多模态大模型🙄的发展趋势,这种高效的图像生成技术可能会成为更大规模AI系统🥳的重要组成部分。当图像生成能够以更低的成本实现更高的质量时,🚀我们可能会看到更多创新的应用场景出现,从内容创作到科学研究,🚀从教育培训到娱乐游戏。 说到底,这项研究解决的是一个困😀扰研究界多年的根本性问题。通过巧妙地利用已有的视觉知识来指导🤩新的学习过程,华中科技大学的团队不仅实现了技术突破,更为我们😂展示了如何在人工智能研究中更好地利用已有成果。这种思路启发我😉们,真正的创新往往不是从零开始,而是在深入理解现有知识基础上😂的智慧重组。 这项工作的成功也提醒我们,在追求更强大A😜I能力的同时,效率和可持续性同样重要。在一个计算资源日益宝贵😍的时代,如何用更少的资源做更多的事情,可能是决定AI技术能否🤔广泛普及的关键因素。华中科技大学团队提供的解决方案,在这个方😁向上迈出了坚实的一步。 Q&A Q1:VA-VA🤯E是什么?它是如何解决AI绘画中的优化困境的? A:V💯A-VAE是视觉基础模型对齐变分自编码器的缩写,是华中科技大💯学团队开发的一种新型图像压缩技术。它通过让图像"翻译员"(V😂AE编码器)在学习时参考已经训练成熟的视觉基础模型(如DIN😎Ov2),解决了高维度下重建质量提升但生成质量下降的矛盾。就🤯像给新手翻译员配备了经验丰富的导师,既保持了翻译的准确性,又😴让后续的创作过程更加顺畅。 Q2:LightningD😡iT为什么能实现21倍的训练加速? A:Lightni👍ngDiT通过三个层面的优化实现了显著加速:训练策略优化(如😘增大批次大小、调整学习率、使用校正流技术)、扩散优化(如对数😡正态采样、速度方向损失)、以及架构改进(如SwiGLU激活函🤔数、RMS归一化、旋转位置编码)。这些优化策略的精心组合,加❤️上VA-VAE提供的更易学习的潜在空间,使得原本需要1400👏个训练周期才能达到的效果现在只需64个周期就能实现。 😁Q3:这项技术的实际应用价值有哪些?普通用户什么时候能体验到😀? A:这项技术的最直接价值是大幅降低了AI图像生成模🤩型的训练成本和时间,这意味着更多公司和研究团队能够负担得起高😜质量的图像生成研究。对普通用户而言,这将推动AI绘画工具变得😡更加普及和高质量。由于研究团队已经开源了完整代码,预计在未来😘几个月到一年内,基于这项技术的商业产品和开源工具就会开始出现❤️。返回搜狐,查看更多
北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)
天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)
河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)
唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)
秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)
邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)
邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)
保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)
张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)
承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)
沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)
天眼查App显示,近日,武汉市洪山区鸿运礼尚艺术品工作室(个😢体工商户)成立,法定代表人为罗艳,注册资本2万人民币,经营范😉围为一般项目:工艺美术品及礼仪用品销售(象牙及其制品除外),❤️工艺美术品及收藏品零售(象牙及其制品除外),工艺美术品及收藏❤️品批发(象牙及其制品除外),艺术品代理,茶具销售,日用陶瓷制🤩品销售,礼品花卉销售,日用品销售,日用品批发,日用百货销售。😅(除许可业务外,可自主依法经营法律法规非禁止或限制的项目)。😎返回搜狐,查看更多
推荐阅读
墨子是一个怎样的人?在那个年代,他的艺术思想呈现出怎样的形式
3255
侍卫杀两虎救乾隆,乾隆问他要何赏赐?侍卫:就赏我一个胖宫女吧
1791
“马德雷山”号末日到了,船体出现一个大洞,菲方或被迫撤离驻军
1866
皇帝为什么宁愿用太监伺候,而不用美貌的宫女呢?原因其实很简单
4259
水浒中的3个细节,让我不知作者为何能写出这样的剧情
9528
刘少奇三女刘平平:突然脑溢血昏迷,刘源亲自看护,11年后去世!
2781
陈老总何时救过林彪一命?
5425
八国联军侵华真相,并非武器落后失败,背后原因令人深思
7014
许世友:如果授衔你适合啥军衔?耿飚:其他不敢说,肯定在你前面
3979
朝鲜战争中,被志愿军打惨的土耳其,战后得了个大便宜
1683
39集团军军长与老兵饭店聚会,被歹徒挑衅,霸气回应:你过来试试
9341
2019 年,站美军舰上警告我国海军的华人女兵,如今为何狂不起了
7143
亚洲最穷国家,游客去了就是土豪,女性开放却为何无人选择定居?
9083
安徽一男子因长相神似普京,被俄罗斯富婆公开示爱,如今何在?
2928
如果真有90%台湾人不支持统一,该怎么办?蔡正元给出强硬回答!
6325
俄罗斯:真的打起来,中国最厉害的并不是解放军!
7393
90岁齐白石,一把将25岁新凤霞拉进卧室,指着一个放满钱的立柜!
2954
史上最奇葩政变:11岁废太子带19个宦官,一夜之间就翻盘称帝!
3740
古代穷人娶不上老婆,怎么传宗接代?他们想了个办法,沿用至民国
4795
重庆谈判,蒋介石:润之,不如去当个省长?主席:哪个省省长?
7357
为何武松一断臂,兄弟们就不再理他?你看他抱着孙二娘时说了什么
1738