如何正确理解Token经济学?
吃瓜电子官网最新热点:如何正确理解Token经济学?
更新时间: 浏览次数:4471
文 | 解码Decode 文 | 解码Decode 😡 去年5月,当大模型厂商卷起价格战时,Tokens大概率是🙌出镜率最高的英文单词。 简单来说,Tokens是大语言🙌模型(LLM)用来切割自然语言文本的基本单位,可以直观的理解❤️为“字”或“词”。 就像工业时代用“千瓦时”度量电力消😎耗,互联网时代用“GB”度量数据流量,AI时代用“Token😁”来度量模型的工作量。一个Token可以理解为一个词或词片段😆(中文里可能是一个字或词语)。 Tokens的调用量,😘本质反映了模型推理过程的计算量。而计算量的高或低,直接揭示了😉模型在实际应用中的能力、成本、速度和可行性。 因此,从😂Tokens角度跟踪AI应用落地进展,就是一个非常深刻且切中⭐要害的视角。 它意味着我们将AI从一种“黑箱魔法”或纯😡粹的技术概念,拉回到了一个可度量、可分析、可商业化的实际生产😴要素的层面。 简单来说,这意味着我们不再只关注AI“能😊做什么”,而是开始量化分析它“做了多少”、“效率多高”、“成😢本多少”以及“价值多大”。 谁在消耗tokens? 😅 模型厂商以tokens为主要定价单位的底层逻辑是:模型调😍用时的tokens消耗量与相应算力投入存在强关联性。而另一条🤔暗线则是,算力投入链接了营收与tokens调用量。 换😊个说法就是,模型厂商营收与其tokens调用量呈现显著同步的😍高增趋势。 2024年6月至2025年6月,OpenA🙄I大模型基础设施——微软Azure云的日均tokens调用量👏从0.55万亿上涨至4.40万亿,与此同时,OpenAI年化🔥营收(ARR)从2024年12月的55亿美元增长至2025年😊6月的突破100亿美元,并在2025年8月达到120亿-13🥳0亿美元。 也就是说,谁消耗tokens更多谁就是基模😢厂商的主流商业模式。 就目前来看,OpenAI、Ant🌟hropic、字节跳动等基模厂商主要有C端和B端两种,其中C👏端包括原生聊天助手、工具类原生应用(影视、图片、编程等)的订😎阅收入、付费功能以及与内部C端产品整合后的间接收入(如Goo🌟gle Chrome); B端则包含为大客户落地AI应🙄用和企业直接API调用。 C端的tokens调用量,主⭐要贡献者有三个: 1 大流量池产品内部的附加AI功能 😂 2024年5月谷歌搜索上线的AI Overview功能😴,至2025年二季度月活已超20亿。国海证券预测,AI Ov🙄erview功能单日tokens消耗量在1.6至9.6万亿区😉间内,在2025年7月Google日均tokens调用量中的🙌占比为4.9%至29.4%。 展开全文 抖音、剪🙄映、今日头条等同样为大流量池C端产品,月活量级已达到10亿(🌟2025年3月)、7亿(2025年7月)、2.6亿(2024🎉年下半年月均)。 百度之于搜索、美图秀秀之于图像,大流😀量C端应用的AI改造都是上述逻辑。据非凡产研,2025年7月😉百度AI搜索访问量居国内智慧搜索品类第一、美图秀秀的国内访问🚀量/存量月活、新增下载量依旧居图像品类第一,且月度收入仍在环😅比提升。 2 原生聊天助手 ChatGPT聊天助🤯手保有较大C端用户规模,2025年7月APP+网页端合计月活😊达10.15亿,是OpenAI重要Tokens调用量驱动因素🥳。 3 视频赛道拥有较大用户基础的新兴应用 除产🥳品内置AI功能、聊天助手外,图像、视频、陪伴、办公、教育赛道😂内均出现了有较大潜力的C端新兴AI应用。 字节跳动进行😊多维度布局,推出醒图/星绘(图像)、即梦(视频)、猫箱(陪伴🎉)、豆包爱学(教育)等AI应用。 其中醒图、即梦7月月😜活达到4924万(当月收入59万美元)、1393万(当月收入😍58万美元),已成为图像、视频赛道内拥有较大用户量级的产品;🤩猫箱7月月活794万,当月收入达112万美元,商业转化效率较🤔高。 例如接入gpt-image-1、Leonardo🤩.AI的Canva,用于文生图、文生视频、图像补全等除文本模😜态外的编辑、生成场景。根据Gemini、Kimi等大模型的折😢算口径,单张图片的输出(输入)tokens消耗量在1024(😡kimi)—1290(Gemini)之间。 B端tok😢ens调用量主要源于企业级AI应用。其所呈现出来的特征,一是👍渗透率较高,Google发布的“全球601个领先企业AI应用🔥案例”显示,各大规模的企业已开始尝试将生成式AI投入生产,涉😴及汽车与物流、商业与专用服务、金融服务、医疗与生命科学、酒店😘与旅游、制作、工业与电子、媒体、营销与游戏、零售、科技、通信😢、公共部门与非盈利组织”11大行业。 二是基模厂商的B😡端收入比例较大。 数据预测2025年OpenAI来自B😊端的ARR收入占比达54%;Anthropic占比达80%。😀谷歌透露Gemini企业客户超过8.5万家,推动调用量同比增🌟长35倍;火山引擎大模型收入2024年在国内公有云市场中份额😁排名第一,占比达46.4%(外部使用量,不包括豆包等内部AP😡P)。 技术迭代解锁应用需求 越来越多的toke🤯ns调用量,并非因为更大参数的大模型,而是推理增强、多模态、❤️Agent化、长上下文转型共同作用的结果。用一句话概括既是:😊技术迭代解锁应用需求。 以GPT-5和Grok4为例:😁 GPT-5把“更强的推理能力(通过引入test-ti🤩mecompute)+多模态+更长上下文+更严格的安全控制等👏”置于产品默认层面; Grok4核心升级则是把“原生工😡具调用+多代理协同推理+超长上下文等”做成一个可商用产品。 😍 GPT-5和Grok4如此设置的目标,是希望借助技术迭🙌代增强AI在更复杂、更具备“生产力”的关键场景下的实用性、准😘确性,并且使得AI应用加速落地。 举个例子,假设原来1🚀轮客服对话服务消耗200tokens,升级后客服问答场景中的😅大模型推理过程将扩展成: 客户意图澄清+内部知识库检索🤩+逻辑校验+答案润色4个环节,即4轮内部推理,每轮150~2🚀00tokens,最终消耗600至800tokens。 😍 类似的案例在对应的推理增强、多模态、Agent化、长上下文⭐转型中都能找到,其最终结果是双向增强,存量AI应用场景的解决🤔方案更好,对应的tokens调用量也倍数增长。 随着技😀术趋势的不断推进,大量原本因“不准、不全、不落地”而被搁置的👏需求将被解锁。当准确率、可控性跨过可行性线后,用户特别是B端😘企业(有生产力场景需求)或将从观望转为批量采购。 总结🎉起来就四点,推理增强把能用变成敢用、多模态把单点工具变成端到😅端工作流、Agent化把对话变成可审计的业务系统、长上下文把🙄项目级任务放进模型。 与此同时,虽然tokens调用量🤔倍数增长,但定价却是直线下降。 比如xAI的Grok-😴4-Fast,输出百万Token仅需0.5美元(约3.5元人😁民币),但比起国内基模厂商来还是不够狠,去年9月阿里通义千问🤯主力模型最高降价85%,Qwen-Turbo低至0.3元/百🤗万Tokens。 其中一部分原因是基模厂商的价格战,让😁“一百万Tokens的钱,都买不了钵钵鸡”,也有一部分是因为🙌模型厂优化算力成本的结果。 2024-2025年,为优🚀化大模型算力成本,模型厂商进行了压缩大模型单次推理计算量(稀🤯疏化、量化、投机解码)、提升GPU利用率(连续批处理、编译器🥳融合)以及换用租金更便宜的云、芯片(国产替代、专用ASIC)🥳等方面的尝试,平均tokens定价实现了较大降幅。 此😢外模型厂商还进一步通过“模型分层+价格分层”的多样化策略压低😢模型的使用门槛,让中小预算客户也可接入,比如:OpenAI 😀用GPT-5-mini/nano覆盖轻量场景;Google以😍Gemini 2.5 Flash 主打“极速低价”;Anth🤩ropic用Claude 3.5 Haiku 提供中等规模、😉高性价比选项等。 因此一个AI飞轮就已成型,当模型使用👏成本下降,企业/个人调用ROI随之上升,更多应用需求从观望向🌟采购转化,促进tokens调用量倍数增长的同时,AI应用随之🎉迎来生态繁荣。 Token经济学就意味着,可以直观的获🎉得以下几个关键进展的洞察:成本与经济效益的量化、技术效能与模😀型能力的评估、应用场景的深化与演化以及商业模式与市场格局的清😀晰化。其中成本与经济效益的量化是最直接、最商业化的意义。 🌟 尾声 如果把AI大模型想象成一个“知识电厂”,To🌟ken就是它发出的“度电”,你的提示词就是“合上电闸”的指令😉,AI应用开发者就像是“家电制造商”。 从Tokens🤔角度跟踪进展,就相当于电力公司和社会在跟踪: 全社会总😂用电量(AI应用的总规模)增长了多少? 哪种家电(哪种AI😢应用)最耗电(消耗Token最多)? 发电技术是否进步了(😉模型效率)?每度电的成本是否下降? 新的高能效家电(高效的👍AI应用)是否被开发出来? 从Tokens角度跟踪AI❤️应用落地进展,意味着AI行业正在走向成熟、务实和工业化。它摒😎弃了早期对参数规模和技术炫技的过度关注,转而聚焦于一个更根本⭐的问题:如何以可承受的成本,可靠地利用AI能力来解决实际问题😢并创造商业价值。 这标志着AI不再是实验室里的玩具,而🤗是真正成为了驱动下一代技术和商业创新的基础效用。作为从业者、🤩投资者或观察者,理解Token经济学,就如同在互联网时代理解❤️带宽成本一样,至关重要。返回搜狐,查看更多
北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)
天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)
河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)
唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)
秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)
邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)
邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)
保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)
张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)
承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)
沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)
中国大模型,首登Nature封面。 9月17日,在最新🙄一期的国际权威期刊Nature(自然)中,DeepSeek-🔥R1推理模型研究论文登上了封面。该论文由DeepSeek团队🤩共同完成,梁文锋担任通讯作者,首次公开了仅靠强化学习就能激发🎉大模型推理能力的重要研究成果。这是中国大模型研究首次登上Na😅ture封面,也是全球首个经过完整同行评审并发表于权威期刊的😀主流大语言模型研究,标志着中国AI技术在国际科学界获得最高认🤯可。 Nature在其社论中评价道:“几乎所有主流的大😊模型都还没有经过独立同行评审,这一空白终于被DeepSeek❤️打破。” 中国AI大模型的“Nature时刻” 😘自大模型浪潮席卷全球以来,技术发布、性能榜单层出不穷,但始终👍缺乏一个权威的“科学认证”机制。OpenAI、谷歌等巨头虽屡🙄有突破,但其核心技术多以技术报告形式发布,未经独立同行评审。🎉 DeepSeek以其公开性和透明性打破了这一局面。D😆eepSeek-R1模型的研究论文最早于今年年初发布在预印本🙄平台arXiv上。自今年2月14日向Nature投递论文至今🙄,历经半年,8位外部专家参与了同行评审,DeepSeek-R👍1推理模型研究论文终获发表,完成了从预印本到Nature封面🤗的“学术跃迁”。审稿人不仅关注模型性能,更对数据来源、训练方🤔法、安全性等提出严格质询,这一过程是AI模型迈向更高的透明度😅和可重复性的可喜一步。 因此,Nature也对Deep🤩Seek的开放模式给予高度评价,在其社论中评价道:“几乎所有😜主流的大模型都还没有经过独立同行评审,这一空白终于被Deep🌟Seek打破。”全球知名开源社区Hugging Face机器🙌学习工程师Lewis Tunstall也是DeepSeek论😢文的审稿人之一,他强调:“这是一个备受欢迎的先例。如果缺乏这😡种公开分享大部分研发过程的行业规范,我们将很难评估这些系统的😅潜在风险。” 据了解,DeepSeek本次在Natur🤔e上发表的论文较今年年初的初版论文有较大的改动,全文64页,🤯不仅首次披露了R1的训练成本,而且透露了更多模型训练的技术细😂节,包括对发布初期外界有关“蒸馏”方法的质疑作出了正面回应,😴提供了训练过程中减轻数据污染的详细流程,并对R1的安全性进行😂了全面评估。 其中,在训练成本方面,R1-Zero和R⭐1都使用了512张H800GPU,分别训练了198个小时和8😀0个小时,以H800每GPU小时2美元的租赁价格换算,R1的👏总训练成本为29.4万美元(约合人民币209万元)。不到30🤯万美元的训练成本,与其他推理模型动辄上千万美元的花费相比,可👍谓实现了极大的降本。 关于R1发布最初时所受到的“蒸馏🚀”质疑,DeepSeek介绍,其使用的数据全部来自互联网,虽😀然可能包含GPT-4生成的结果,但并非有意而为之,更没有专门😜的蒸馏环节。所谓“蒸馏”,简单理解就是用预先训练好的复杂模型😘输出的结果,作为监督信号再去训练另外一个模型。R1发布时,O😀penAI称它发现DeepSeek使用了OpenAI专有模型😁来训练自己的开源模型的证据,但拒绝进一步透露其证据的细节。 😍 R2何时问世引发关注 自今年年初发布R1以来,D🙄eepSeek在全球树立了开源模型的典范,但过去数月,外界对😎于R2何时发布始终保持高度关注,相关传言一直不断。不过,R2💯的发布时间一再推迟,外界分析R2研发进程缓慢可能与算力受限有👍关。 展开全文 值得注意的是,今年8月21日,D🤩eepSeek正式发布DeepSeek-V3.1,称其为“迈🚀向Agent(智能体)时代的第一步”。据DeepSeek介绍🚀,V3.1主要包含三大变化:一是采用混合推理架构,一个模型同🤗时支持思考模式与非思考模式;二是具有更高的思考效率,能在更短🙄时间内给出答案;三是具有更强的智能体能力,通过后训练优化,新😜模型在工具使用与智能体任务中的表现有较大提升。 由于R🥳1的基座模型为V3,V3.1的升级也引发了外界对于R2“在路🎉上”的猜测。V3.1的升级更深刻的意义在于,DeepSeek🤯强调DeepSeek-V3.1使用了UE8M0 FP8 Sc🚀ale的参数精度,而UE8M0 FP8是针对即将发布的下一代🙄国产芯片设计。这也表明未来基于DeepSeek模型的训练与推🌟理有望更多应用国产AI芯片,助力国产算力生态加速建设。这一表🎉态一度带动国产芯片算力股股价飙升。 中国银河证券研报指😘出,DeepSeek从V3版本就开始采用FP8参数精度验证了😎其训练的有效性,通过降低算力精度,使国产ASIC芯片能在成熟😅制程(12-28nm)上接近先进制程英伟达GPU的算力精度,😁DeepSeek-V3.1使用UE8M0 FP8 Scale😅参数精度,让软件去主动拥抱硬件更喜欢的数据格式,“软硬协同”😉的生态技术壁垒逐渐成为AI浪潮下新范式,未来国产大模型将更多😜拥抱FP8算力精度并有望成为一种新技术趋势,通过软硬件的协同😍换取数量级性能的提升,国产算力芯片将迎来变革。 责编:👏万健祎 校对:王朝全 版权声明 " Typ😡e="normal"@@--> 证券时报各平台所有原创⭐内容,未经书面授权,任何单位及个人不得转载。我社保留追究相关🙌行为主体法律责任的权利。 转载与合作可联系证券时报小助👍理,微信ID:SecuritiesTimes " Ty👏pe="normal"@@-->返回搜狐,查看更多
推荐阅读
刚恢复稀土供应,中国对美国出口激增7倍,美国刚要庆祝,却被中方接下来一个举动搞破防了
7368
俄乌还没打完,下一个“乌克兰”就在中国周边?赤裸裸的冲撞试探中方,我国已发出预警
1827
出访行程已公布,特朗普罕见帮中国说话,承认了一个事实,访华已是水到渠成?
6861
吃了个“闷亏”的越南,突然开始对华示好,打算直接联手解放军,干一件从未做过的“大事”
2891
总统作出“罪己诏”,伊朗人都直呼罕见,下一步是全面清除“内鬼”?
3410
突发,两船只剩下100米就相撞,中国海警安全遭威胁,菲律宾正加速“乌克兰化”?
4805
特朗普一锤定音,印度“老底”被揭!莫迪终于懂了:中国和美国真不一样
4653
特朗普算盘彻底落空!美方没料到,获中方提格接待的印度外长,对华首个承诺就把美国卖了
2236
特朗普出访行程公布,时间安排的很微妙,访华已经是水到渠成?
5663
10天倒计时,韩国被逼上“绝境”,美国张口要4000亿,李在明签不签?
8268
中国又一友国“倒戈”!越南看到税率惊讶了:1%差距也能决定生死
1112
特朗普寻求访华,对华态度兼职就像变了个人,但美国有人不乐意了
2707
北约秘书长要求中国,打电话劝普京就范,却未料乌克兰现下更危险
4176
特朗普彻夜难眠!中国一出手就是3440亿,ASML或被取代,这局又赢了
1946
菲船只强闯黄岩岛,局势变成2对1,中方要求离场,否则后果自负
1867
炒作“中国威胁”,掩盖侵略野心,中国罕见发火,白皮书藏着大阴谋
3472
特朗普也没想到,地点北京,中国迎来一位“稀客”!印度放下5年的“恩怨”,在北京许下2大承诺
8516
特朗普出访的国家已定,安排很特殊,时间在九三大阅兵之后,为访华留出窗口期?
9767
美国振臂一呼,19国已派兵军演,中方耐心不多了,不介意杀鸡儆猴!
2415
39页报告抄错解放军战机数量?日本犯大错,中方罕见发火:别想糊弄
5117
菲律宾又找事?2300吨菲船冲向我海警,距离仅有100米,东盟9国已作出选择
5583