上海AI实验室重磅推出多模态奖励模型IXC-2.5-Reward
吃瓜电子官网最新热点:上海AI实验室重磅推出多模态奖励模型IXC-2.5-Reward
更新时间: 浏览次数:1495
这项令人瞩目的研究来自上海人工智能实验室的研究团队,由臧宇航🥳、董晓乙、张攀、曹宇航、刘子豫、丁昇远、吴慎熙、马宇博、段浩⭐东、张闻维、陈凯、林达华和王家琦等学者合作完成。这项研究发表😘于2025年1月,论文题目为"InternLM-XCompo😡ser2.5-Reward: A Simple Yet Ef😴fective Multi-Modal Reward Mod😂el"。感兴趣深入了解的读者可以通过论文的详细技术报告获得更😆多信息。 想象一下,你有一个助手,它不仅能听懂你说话,🤩还能看懂图片、理解视频,甚至知道你更喜欢什么样的回答。这就像🤔是给AI装上了"品味雷达",能够准确感知什么样的答案更合你的🔥心意。这正是上海AI实验室这项研究所要解决的核心问题。 🤩 在AI发展的历程中,大型语言模型已经变得相当聪明,但有时它😍们给出的答案可能不太令人满意,甚至会"胡说八道"。就像一个很🤔有学问但不太懂察言观色的学者,知识渊博却不知道什么时候该说什😀么。为了让AI更好地理解人类的偏好,研究人员开发了各种"奖励👏模型",这些模型就像是AI的品味导师,帮助它们学会什么是好答😴案、什么是坏答案。 然而,当前的奖励模型大多只能处理纯🤔文本,面对包含图像和视频的多模态内容时就显得力不从心了。这就🤯像是一个只会品尝文字美味的评委,突然需要评判一道既有视觉效果😂又有文字说明的复合料理,显然准备不足。研究团队发现,现有的多🙌模态奖励模型要么功能有限,要么依赖昂贵的商业模型,这严重限制🎉了开源多模态AI系统的发展。 正是在这样的背景下,研究🤩团队开发了InternLM-XComposer2.5-Rew😎ard(简称IXC-2.5-Reward),这是一个能够同时🚀理解文本、图像和视频的奖励模型。这个模型就像是一位全能的品味😘大师,不仅能品尝文字的韵味,还能欣赏图像的美感和视频的动态效😅果,然后综合判断什么样的AI回答最符合人类的期待。 一😢、为AI装上品味雷达:模型的核心设计 IXC-2.5-🤔Reward的设计理念就像搭建一座桥梁,连接AI的智能输出和🙄人类的真实偏好。研究团队没有从零开始重新发明轮子,而是巧妙地😎在已有的InternLM-XComposer2.5模型基础上🙄进行改造。这就好比在一辆性能优异的汽车上安装一个先进的导航系😴统,充分利用原有的强大引擎,只是增加了判断方向的能力。 🤔 模型的架构包含几个关键组件。首先是视觉编码器,它就像AI的⭐眼睛,负责理解图像和视频内容。然后是投影器,它的作用类似于翻🥳译官,将视觉信息转换成语言模型能够理解的形式。接着是大型语言😍模型本体,这是整个系统的大脑,负责综合处理各种信息。最后是评⭐分头,这是新增加的关键部分,专门负责对AI的回答进行打分,判🤗断其质量高低。 展开全文 训练这个模型需要大量的🤩偏好数据,就像训练一个品酒师需要让他品尝各种不同质量的酒类一🤯样。研究团队精心构建了一个包含多种模态的偏好数据集,其中既有❤️来自现有开源数据集的高质量样本,也有团队自己收集和标注的新数😴据。这些数据涵盖了指令跟随、通用理解、文档理解、数学推理和视👏频理解等多个领域。 在数据收集过程中,研究团队采用了一🙄种聪明的方法。对于每个问题,他们会生成多个不同的答案,然后使🔥用GPT-4o或专门的验证器来判断哪个答案更好。这就像是请专👏业评委对不同厨师做的同一道菜进行评分,最终确定哪道菜更符合标😉准。通过这种方式,模型能够学会区分高质量和低质量的回答。 🤯 为了防止模型过分偏爱冗长的回答,研究团队还特别设计了长度😜约束机制。因为在现实中,有些AI模型会通过生成非常长的回答来🙌获得更高的评分,但这些冗长的回答往往包含很多无关信息,反而影😆响用户体验。这就像是防止学生在考试中为了显示博学而写过多无关😢内容,确保答案既准确又简洁。 二、三种妙用:从训练助手😂到质量检验员 IXC-2.5-Reward就像是一个多👍才多艺的助手,在AI系统的不同阶段都能发挥重要作用。研究团队😁展示了它的三种主要应用方式,每种都解决了AI开发中的实际问题🎉。 第一种应用是在强化学习训练中担任导师角色。想象一下🔥教小孩学骑自行车的过程,你不能只告诉他理论知识,还需要在他每😅次尝试后告诉他哪里做得好、哪里需要改进。IXC-2.5-Re👍ward就扮演了这样的导师角色,在AI模型的训练过程中不断提💯供反馈信号。研究团队使用近端策略优化算法,让AI模型根据奖励👏模型的评分来调整自己的行为。 通过这种训练方式,他们得😉到了IXC-2.5-Chat模型,这个模型在指令跟随和多模态😜对话方面表现显著提升。就像一个经过专业训练的服务员,不仅能准👍确理解顾客的需求,还能以更令人满意的方式提供服务。在多个测试😡基准上,IXC-2.5-Chat都展现出了比原始模型更好的性😆能。 第二种应用是在推理时进行最优选择,这类似于给AI🌟安装了一个"多选一"的智能筛选器。当AI模型对同一个问题生成😁多个不同的回答时,IXC-2.5-Reward能够快速评估每❤️个回答的质量,然后选出最好的那个。这就像是在多个菜品中选择最🚀符合顾客口味的那道菜,确保每次都能提供最佳体验。 这种😎测试时扩展的方法特别有价值,因为它不需要重新训练主模型,只需💯要在使用时增加一个选择步骤。研究结果显示,使用最优选择策略后💯,模型的表现得到了进一步提升,证明了IXC-2.5-Rewa👏rd在质量评估方面的准确性。 第三种应用是数据清理,这🙄可能是最实用的功能之一。在AI训练数据的海洋中,总是混杂着一🚀些质量不高的样本,就像珍珠堆里混进了一些石子。IXC-2.5😜-Reward能够识别出那些有问题的数据,比如包含幻觉内容的😅回答、空洞无意义的回答,或者图像与文字不匹配的样本。 😜研究团队发现,那些被IXC-2.5-Reward评为低分的样😡本往往确实存在各种问题。这种发现让数据清理工作变得更加高效和🤔准确,就像有了一个经验丰富的质检员,能够快速识别出产品中的次🎉品。这对于维护AI训练数据的质量具有重要意义,因为高质量的数🌟据是训练出色AI模型的基础。 三、性能表现:在各项测试😘中脱颖而出 为了验证IXC-2.5-Reward的实际😂效果,研究团队进行了全面的评估测试,就像对一款新车进行各种路😍况的试驾一样。测试结果令人印象深刻,展现了这个模型在多个维度😎上的优异表现。 在VL-RewardBench这个专门👏评估多模态奖励模型的基准测试中,IXC-2.5-Reward😴取得了70.0%的宏观准确率,这个成绩超越了所有其他开源模型🙄,甚至在整体表现上达到了65.8%的准确率。更让人惊讶的是,🤯这个仅有70亿参数的开源模型,在某些方面的表现竟然超过了一些😜大型商业模型,比如Gemini-1.5-Pro的62.5%和😆GPT-4o的62.4%。这就像是一个体重较轻的拳击手击败了😍重量级选手,展现了技巧和效率的重要性。 特别值得注意的🤩是,IXC-2.5-Reward在处理通用问题方面表现尤为出👏色,准确率达到了84.7%。研究团队分析认为,这是因为其他生🙄成式奖励模型在面对复杂问题时往往难以做出明确判断,而IXC-😡2.5-Reward能够通过数值评分的方式做出更精确的区分。🥳这就像是用精密仪器测量,比肉眼判断更加准确可靠。 为了😆证明模型的通用性,研究团队还在纯文本的奖励模型基准测试中评估😎了IXC-2.5-Reward的表现。在RewardBenc😅h上获得了88.6%的平均分,在RM-Bench上获得了68👏.8%的分数。这些结果表明,即使是专门为多模态设计的模型,在😎处理纯文本任务时也没有出现性能下降,反而保持了很强的竞争力。🔥 通过IXC-2.5-Reward训练得到的IXC-2👏.5-Chat模型在实际应用测试中同样表现出色。在WildV🥳ision、MIA-bench、MM-MT等评估指令跟随和对😢话能力的基准测试中,IXC-2.5-Chat都比原始的IXC😡-2.5模型有了显著提升。这就像是一个经过专业培训的客服人员😜,不仅能更准确理解客户需求,还能提供更贴心的服务。 四🤯、技术创新:简单却有效的设计哲学 IXC-2.5-Re😅ward的成功之处在于它采用了"简单却有效"的设计理念,就像🙄苹果公司的产品设计一样,看似简单但功能强大。这种设计哲学体现😢在模型架构和训练策略的多个方面。 与那些从零开始构建复⭐杂架构的方法不同,研究团队选择了在现有强大模型基础上进行改造😅的策略。他们保留了InternLM-XComposer2.5🥳的视觉编码器和投影器,这些组件已经具备了处理图像和视频的能力💯,只是在最后添加了一个评分头来预测奖励分数。这种做法就像是在🥳一台性能优异的电脑上安装一个新软件,充分利用了硬件的计算能力🥳。 在训练过程中,研究团队采用了冻结策略,即保持视觉编❤️码器和投影器的参数不变,只训练语言模型部分和新增的评分头。这😉样做的好处是既能保持原有的视觉理解能力,又能学习新的评估技能😘,同时大大减少了计算成本。这就像是让一个已经具备基本技能的员😉工专门学习一项新技能,比从头培养一个全新员工要高效得多。 😎 模型使用的损失函数也体现了简洁有效的设计思想。研究团队采⭐用了经典的对比学习方法,让模型学会区分好答案和坏答案。具体来😆说,对于同一个问题的两个不同答案,模型需要给质量更高的答案分🎉配更高的分数。这种训练方式就像是教一个品酒师通过对比品尝来提😢高鉴赏能力。 为了解决长度偏见问题,研究团队在数据准备😁阶段引入了长度约束。他们发现,如果不加控制,模型可能会偏爱那🙌些看起来更详细但实际上包含冗余信息的长答案。通过在训练数据中💯平衡不同长度答案的比例,确保模型学会的是真正的质量判断,而不😊是简单的长度偏好。这就像是训练裁判时要告诉他们,比赛的胜负不😴应该基于选手说话的多少,而应该基于表现的质量。 五、实🤔际应用:让AI更贴近人类需求 IXC-2.5-Rewa🔥rd的实际应用价值远远超出了学术研究的范畴,它为解决现实世界😡中AI应用的痛点提供了切实可行的解决方案。研究团队通过详细的😊案例分析展示了这个模型在不同场景下的应用潜力。 在指令😡跟随方面,IXC-2.5-Chat展现出了更强的理解和执行能🤩力。比如当用户要求以特定格式输出信息时,改进后的模型能更准确🤩地理解要求并按照指定格式提供答案。这种改进就像是培训一个更细🌟心的助理,不仅能理解任务内容,还能注意到格式细节。 在😅开放式对话中,IXC-2.5-Chat能够提供更有组织性和深😅度的回答。面对复杂问题时,它会采用更清晰的逻辑结构来组织答案😡,提供更全面的信息,同时保持回答的相关性和实用性。这就像是从😎一个知识渊博但表达混乱的专家变成了一个既博学又善于沟通的顾问😉。 在数据质量控制方面,IXC-2.5-Reward展🙄现出了敏锐的"嗅觉"。它能够识别出训练数据中的各种问题,包括😎事实错误、逻辑矛盾、信息不匹配等。研究团队展示的案例中,模型🤗成功识别出了图像与文字描述不符、问题为空、回答包含幻觉内容等💯多种问题。这种能力对于维护AI训练数据的质量具有重要意义。 ⭐ 测试时扩展功能让模型的实用性得到了进一步提升。当模型生🤩成多个候选答案时,IXC-2.5-Reward能够快速评估并😊选择最佳答案。实验结果显示,这种方法能够在不重新训练模型的情😎况下显著提升回答质量,这为实际部署提供了灵活性。 六、😂技术挑战与解决方案:在限制中寻找突破 任何技术创新都会🥳面临各种挑战,IXC-2.5-Reward的开发过程也不例外😁。研究团队在论文中坦诚地讨论了他们遇到的技术挑战以及相应的解🎉决方案,这些经验对整个AI社区都具有重要的借鉴价值。 😢数据稀缺是多模态奖励模型面临的首要挑战。与纯文本数据相比,包😴含图像和视频的偏好数据要稀少得多,而且质量参差不齐。研究团队💯采用了多管齐下的策略来解决这个问题。他们既充分利用了现有的开😢源数据集,又自主收集和标注了大量新数据。在数据生成过程中,他😊们使用了多种策略来确保数据的多样性和质量。 评估标准的❤️不统一是另一个重要挑战。不同于数学题有标准答案,多模态AI的👏回答质量往往很难用统一标准来评判。研究团队通过结合自动评估和😍人工验证的方式来解决这个问题。他们使用GPT-4o等强大模型🥳来进行初步评估,然后通过人工检查来确保评估质量。 长度😡偏见问题在开发过程中逐渐显现出来。研究团队发现,如果不加控制😊,模型往往会偏爱冗长的回答,即使这些回答包含很多冗余信息。他❤️们通过引入长度约束和平衡不同长度答案的方式来解决这个问题。有😢趣的是,他们还发现现有的评估基准也存在类似的长度偏见问题,这👏提醒整个社区需要开发更加公平的评估方法。 跨领域泛化能💯力是多模态模型面临的普遍挑战。一个在某个领域表现优秀的模型可😍能在其他领域表现平平。研究团队通过构建涵盖多个领域的综合数据🚀集来增强模型的泛化能力。他们的数据集包括了自然场景理解、文档🤯分析、数学推理、视频理解等多个不同领域。 计算资源的限😆制也是实际开发中需要考虑的问题。训练大型多模态模型需要巨大的😆计算资源,这对许多研究团队来说是一个现实的制约因素。研究团队😎通过聪明的设计选择来缓解这个问题,比如重用预训练模型的组件、❤️采用冻结训练策略等。 七、未来影响:开启多模态AI的新😍篇章 IXC-2.5-Reward的发布不仅仅是一个技😡术成果的展示,更是为整个AI领域的发展开辟了新的可能性。它的🤯影响将在多个层面上逐步显现,从学术研究到商业应用,从开发工具🤗到用户体验。 对于学术研究领域,这项工作填补了多模态奖😍励模型的空白,为其他研究者提供了重要的基础工具。就像建筑师有👏了新的建筑材料,可以设计出更复杂、更实用的建筑一样,有了IX😉C-2.5-Reward这样的工具,研究者们可以探索更多有趣🤯的研究方向。特别是在强化学习、多模态理解、AI对齐等领域,这🎉个模型将成为重要的研究基础设施。 从商业应用角度来看,👍IXC-2.5-Reward为开发更加智能和贴近用户需求的A😁I产品提供了可能。企业可以利用这个模型来优化他们的AI助手、⭐内容生成系统、推荐系统等产品。比如,视频平台可以用它来评估和🤔筛选AI生成的视频描述,电商平台可以用它来优化商品图像的自动🥳标注质量。 对于开源AI社区,这项工作的意义更加深远。😜长期以来,开源模型在奖励建模方面一直落后于商业模型,这限制了🤩开源AI系统的发展。IXC-2.5-Reward的开源发布为🙌社区提供了一个强大的工具,有助于缩小开源和商业模型之间的差距🥳。这就像是为开源开发者提供了一套专业的工具包,让他们能够构建😜出更加优秀的产品。 在技术标准化方面,这项工作也将产生🤗重要影响。随着越来越多的研究者开始关注多模态奖励建模,IXC😢-2.5-Reward提供的方法和经验将成为该领域的重要参考😅。它的评估框架、数据构建方法、训练策略等都可能成为后续研究的👍标准做法。 从用户体验的角度来看,这项技术最终将让普通🙄用户受益。当AI系统能够更好地理解用户偏好,提供更加个性化和🔥准确的回答时,人机交互的质量将显著提升。无论是在教育、娱乐、👍工作还是生活的其他方面,用户都将享受到更加智能和贴心的AI服😘务。 对于AI安全和对齐问题,IXC-2.5-Rewa🔥rd也提供了新的思路。通过更好地建模人类偏好,有望开发出更加🎉安全、可靠的AI系统。这对于确保AI技术的健康发展具有重要意💯义。 说到底,IXC-2.5-Reward代表的不仅仅💯是一个技术突破,更是AI发展道路上的一个重要里程碑。它展示了😍如何通过巧妙的设计和工程实践来解决实际问题,为AI系统更好地😜理解和服务人类提供了新的可能性。随着这项技术的普及和改进,我😂们有理由期待AI将变得更加智能、更加贴近人类的真实需求。 😀 当然,技术的发展是一个持续的过程,IXC-2.5-Rew💯ard也有其局限性,特别是在多语言支持和文化偏见方面还需要进😡一步改进。但是,作为多模态奖励建模领域的重要探索,它无疑为未💯来的发展奠定了坚实的基础。对于那些关注AI技术发展的人来说,😢这项研究值得持续关注,因为它很可能会引发更多创新和突破。 🥳 Q&A Q1:IXC-2.5-Reward是什么?❤️它与普通的AI模型有什么不同? A:IXC-2.5-R🤔eward是由上海AI实验室开发的多模态奖励模型,它的特殊之😢处在于能够同时理解文本、图像和视频,并判断AI回答的质量好坏🙌。与普通AI模型不同的是,它不是用来生成内容,而是用来评判内😂容质量,就像一个专业的品味评委,帮助其他AI模型学会什么是好😴回答、什么是坏回答。 Q2:IXC-2.5-Rewar😉d有哪些实际应用?普通用户能直接使用吗? A:IXC-😅2.5-Reward主要有三种应用:一是作为训练其他AI模型😢的导师,二是在AI生成多个答案时选择最好的那个,三是清理训练😍数据中的低质量样本。目前它主要面向AI研究人员和开发者,普通😡用户虽然不会直接接触,但会通过使用经过它训练改进的AI产品(🔥如IXC-2.5-Chat)间接受益。 Q3:这个模型😁的评判标准可靠吗?会不会有偏见? A:研究团队通过多种🤯方式确保评判标准的可靠性,包括使用GPT-4o等强大模型进行🎉初步评估,结合人工验证,以及构建涵盖多个领域的综合数据集。不🤗过研究团队也承认存在局限性,特别是在多语言支持和文化偏见方面👍还需要改进。他们还特别设计了长度约束机制,防止模型偏爱冗长但🤗无用的回答。返回搜狐,查看更多
北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)
天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)
河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)
唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)
秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)
邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)
邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)
保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)
张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)
承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)
沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)
近日,《Nature》杂志的最新一期封面论文引起了广泛关注,😂研究主题是 DeepSeek-R1。这项研究由梁文锋教授团队😘主导,内容围绕如何通过强化学习来提升大型语言模型(LLM)的😢推理能力。早在今年1月,该研究已在 arXiv 上发布,受到😴学术界的高度评价。 在封面介绍中,《Nature》指出😍,如果大型模型能够规划解决问题的步骤,往往会得到更好的解决方👏案。这种推理能力与人类处理复杂问题的方式相似,但在人工智能领🥳域实现这一点面临着巨大的挑战。研究团队展示了如何在极少人工干🤗预的情况下训练出具备推理能力的模型。 DeepSeek💯-R1模型的训练采用强化学习策略,模型在正确解答数学问题时会❤️获得高分奖励,而答错则会受到惩罚。通过这样的机制,DeepS😉eek-R1学会了逐步推理、解决问题,并在给出答案前进行自我❤️验证,从而提高了其在编程和科学研究中的表现。 值得一提🤗的是,DeepSeek-R1被认为是首个经过权威学术期刊同行🚀评审的语言模型,这一成就标志着 AI 领域的一个重要里程碑。👏Hugging Face 的工程师 Lewis Tunsta🤩ll 对此表示,这是一个重要的先例,强调了行业规范的重要性,😊尤其是在评估 AI 系统潜在风险时。 此外,研究团队在🚀论文中对模型的训练数据类型和安全性进行了详细说明,避免了对模🤔型的拟人化描述,确保研究的严谨性和透明度。这一开放模式得到了😊同行的广泛赞誉,认为有助于提升公众对 AI 的信任。 🤩划重点:返回搜狐,查看更多
推荐阅读
特朗普已骑虎难下,中美谈判结局已定,美国将“一溃千里”?
2211
特朗普已骑虎难下,中美谈判结局已定,美国将“一溃千里”?
6548
普京没有任何隐瞒,美俄元首通话结束,就对中国交代了所有细节
4276
普京没有任何隐瞒,美俄元首通话结束,就对中国交代了所有细节
9844
中方的安排让外媒意外,中美防长会面没戏了?6年来还是头一次
3032
中方的安排让外媒意外,中美防长会面没戏了?6年来还是头一次
5037
这样的“街溜子”,我们有很多艘
5349
菲律宾喜提F-35,又开始对华叫嚣,真把中国当伊朗?
4371
不请自来,悍然进攻叙利亚首都,以色列为什么要保护德鲁兹人?
5165
韩国急于达成贸易协议,美国趁机狮子大开口,上来就要4000亿美元
4853
特朗普吹的牛,被人当面拆穿,援乌“爱国者”就是个笑话
8519
欧洲的六代机项目,再一次濒临崩溃
9300
一味退让换来更大耻辱,美西方威胁恢复制裁,伊朗外长访华求救?
4707
南海撞山的美军核潜艇,修了4年还在修,造船能力堪比俄罗斯
3428
MAGA阵营严重分裂,美众议长亲自下场,跟特朗普对着干
8574
特朗普说要制裁俄罗斯,普京理都不理,集结部队准备跟乌军决战
6855
斗争不止的以色列,又盯上了叙利亚?
4709
内乱罪后又添叛国罪,尹锡悦再次拒绝传唤,在牢里顽抗到底?
2348
中国严打稀土走私,查出离谱案情,举报者竟是美国企业
9663
特朗普团队内部,谁是最反华的“魔怔人”?
7108
32人关一笼,喝冲马桶的水,特朗普还要建更多“鳄鱼恶魔岛”
6022