淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
业绩简评
公司5.21发布公告,4M23主品牌珀莱雅猫旗GMV 2.28亿元左右、同增57%,抖音平台GMV 1.35亿元左右、同增40%:彩棠猫旗GMV为0.45亿元左右、同增95%,料音平台GMVO.29.亿元左右、同增69%。
以此推算主品牌珀莱雅猫旗+抖音GMV同增50%,彩棠猫旗+抖音GMV同增84%,二者合计猫旗+抖音GMV同增55%,4月淡季天猫/抖音延续靓丽增长。
经营分析
看好“618"大促大单品+超头流量加持下爆发能力、Q2业绩望延埃亮眼。跟踪拟上播5.26超头美妆节来看,今年参与SKU数量明显增多: 1)珀莱雅:三大系列(源力/红宝石/双.抗)+双白瓶(卡位美白赛道)共11款明星产品参与超头5.26美妆节、相较于去年5款产品参与有明显增多: 2)彩棠: 3款明星产品(妆前乳、三色遮瑕、修容粉盘)参与5.26美妆节,去年未参与。3) OR: 1款明星产品(温泉洗发水)参与5.26美妆节。从选品来看,聚焦明星单品+主推新品:纵向对比折扣力度,整体较去年618加大、部分产品优惠力度比肩/略大于去年双十一。(数据来自所有女生会员服务小程序)
主品牌珀莱雅势能持埃向上,彩棠保持高增, R/悦芙堤趋势向好。成熟大单品保持良好增长(双抗精华3.0上市口碑良好,后续还将推出红宝石精华3.0) +二线大单品发力(源力系列) +新品蓄力(防晒/美白精华/精华油),主品牌势能持续释放:彩棠接棒大单品策略、第二增长曲线提速,23年聚焦强化底妆优势(升级老产品+上新气垫)、发力色彩类产品(上新腮红/口红/眉部盘),未来有望贡献更多利润增量; 0R/悦芙妮趋势向好,分别卡位头皮健康护理/平价油痘肌赛道。
盈利预测、估值与评级
持续引领行业变革的本土美妆集团,成长性&业绩兑现能力强,预计23-25年归母净利润10.32/12.88/16.15亿元,同比+26%/+25%/+25%,对应23-25年PE分别为45/36/29倍,维持“买入”评级。
风险提示
新品孵化/渠道拓展/营销投放不及预期。.
斗门区白蕉镇国盛通信代办店
摘要
边缘侧是AI生态中最重要的组成部分之一。AI飞轮发展滚滚向前,从今年初GPT-3.5惊艳世界,到5月14日OpenAI正式开启插件功能,我们见证了云端大模型的快速迭代与演化。当前时点,AI大模型已经站在了从“玩具”向“工具”快速演化的关键迭代期。如何让大模型渗透进入各类垂直场景,如何更低成本的使用大模型,如何让更多场景与用户接触AI,成为了发展的下一个重点。在AI向实际场景落地时,边缘算力的重要性加速凸显,边缘算力在成本、时延、隐私上具有天然优势,也可以作为桥梁,预处理海量复杂需求,并将其导向大模型。边缘算力作为AI触及万千场景的血管地位加速明晰。之前,边缘侧设备以部署通信能力为主,当下,在以高通为代表的边缘巨头推动下,算力、AI能力等边缘基建正在加速推动,同时三大运营商的算力网络与边缘资源池体系,也为我国算力梯度分布奠定了雏形。展望未来,边缘算力将始于AI带来的需求提升,同时也将赋能应用,连接更多用户,加速AI发展与迭代。
边缘算力的三大优势。边缘算力,通常指部署在设备本地的算力或者离用户距离较近的数据中心中的算力。边缘算力相较于云端算力,拥有低成本、低时延、高隐私三大特性。(1)低成本:当前主流的边缘算力平台主要采用高通主导下的ARM架构,相比于英伟达的复杂架构,ARM架构在小算力时拥有极低的单位成本,是降低开发与用户成本的必然选择。(2)低时延:边缘算力一般搭载在本地,无需将数据发送至云端并等待回传的时间,可以满足如自动驾驶,快速对话等对时延要求高的场景。(3)高隐私:边缘算力依靠设备本身搭载的算力或在用户自有服务器上的算力进行推理,可以实现数据不出用户管辖范围,对隐私的保护更好。
边缘算力的存在形式。当下边缘算力主要有两种存在模式,一种是设备本身搭载的算力,这类算力通常依托边缘处理芯片存在,边缘处理芯片包括了手机终端上的骁龙与苹果M平台,面向IOT设备的如高通8155芯片或者专为AI优化的【【微信】】芯片。通常,大单品采用直采芯片+定制PCB的形式进行开发,而中小厂商与细分垂直领域往往采购模组来满足算力需求。第二种算力存在形式是边缘资源池,通常由离用户较近的核心城市内的数据中心构成,或者由厂区,道路旁的小机柜、算力盒子提供算力。
边缘算力赋能万千应用。在生成式AI爆发前,边缘算力已经逐渐渗透进了部分商用场景,如手机云游戏、无人设备驾驶、自动视频识别等。如今随着MLC-LLM,谷歌模型体系等软件基建加速,特斯拉机器人为具身智能完成物理基建,在终端设备上推理生成式模型,甚至让智能设备同物理世界自主交互的条件已经具备,未来,随着应用加速渗透、预处理模型需求爆发,以及边缘小模型推理,智能设备物理交互需求爆发。
“云―边”一体,共筑AI飞轮模型。“云―边”一体指云计算和边缘计算的有机结合。此前市场担心小模型对算力需求下降,但我们却认为这正是AI应用闭环的必由之路。类似于交通网络,光有干线是不够的,还需要无数省道、乡村小路通往千家万户,汇聚而来的流量才能驱动干线不断升级。边缘侧需求的释放将开启“真AIOT”时代,或许这才能开启5G当初所提万物互联、算网一体的黄金时代。
投资建议:抓住边缘算力芯片与边缘算力承载平台两条主线
边缘算力芯片:瑞芯微/全志科技/晶晨股份/翱捷科技/乐鑫科技
边缘算力承载平台:美格智能/广和通/超讯通信/龙宇股份/移远通信/网宿科技
边缘算力运营商:中国移动/中国电信/中国联通
风险提示:小模型推进不及预期,边缘算力发展不及预期。
一、投资要件
当前市场普遍聚焦于云端算力发展,忽视了边缘算力在AI乃至社会数字化发展中的重要地位。随着AI大模型应用逐渐渗透进入千行百业和各类垂直细分场景,单纯的大规模计算中心提供的算力将不能满足多样化的AI运算需求。基于几点判断,我们认为边缘算力具备不可或缺性:
第一,未来随着计算芯片加速发展,单位算力成本中,电费与土地费用占比将愈发提升,算力成本将取决于智算中心的地理位置,以我国举例,未来算力成本较低的西部将是云端算力主要部署地。因此,大算力与低时延需求将出现错配。
第二,AI模型推理Token费用较贵,如果需要成熟商用,边缘预处理将是必须选项。通过边缘部署的算力,将用户的多样化需求进行本地的预处理,简单的需求直接利用本地模型和算力推理,复杂需求通过边缘算力预处理后,精简成最少的TOKEN发送至云端,从而能够最低成本的实现应用功能,加速商业化。同时,面向小算力时,ARM架构由于其架构简单,比英伟达复杂架构计算卡更具成本优势,也将加速边缘小算力的渗透速度。
最后,无论是对用户个人敏感数据进行推理,还是推理设计商业敏感数据,完全与云端隔绝的边缘算力,能为用户提供最好的数据安全保护。因此,从时延、成本、隐私三大方面来看,边缘算力未来算力体系的重要构成部分,也是AI需求连接万物的毛细血管。
当前市场普遍聚焦于边缘场景中的大单品逻辑,忽视了边缘生态的多样性。当前市场聚焦于智能音响,智能耳机等大单品及其部件,主要是其作为AI入口的逻辑更具备直接性。但我们认为,随着AI加速向边缘渗透,应用的形式将愈发多样,越来越多的中小厂商将参与到不同场景,不同细分领域的AI智能硬件开发中来。随着应用形式愈发多样,如何在海量不同设备上部署标准化的AI边缘算力将成为一个重要问题。我们判断,物联网模组将成为承载这类算力的重要形式。物联网模组集成了通信芯片与全球大厂的算力芯片,能为海量场景和中小厂商提供稳定的边缘通信能力和边缘算力,大大降低了中小开发者部署边缘算力的门槛和难度。AI时代,是万众创新的年代,海量的开发将来自中小开发者,而模组提供的算力,将成为边缘算力中的重要部分。
行业催化因素:
1. 边缘小模型以及解决方案加速推进,模型蒸馏加速简化
2. 搭载边缘模型与边缘算力的智能设备快速放量
投资建议:
抓住边缘算力芯片与边缘算力承载平台两条主线。
边缘算力芯片:高通/瑞芯微/全志科技/晶晨股份/翱捷科技
边缘算力承载平台:美格智能/广和通/龙宇股份/网宿科技
边缘算力运营商:中国移动/中国电信/中国联通
风险提示:
1. 小模型推进不及预期。
2. 边缘计算不及预期。
二、模型由大到小,AI走上应用的快速路
今年年初,随着Chatgpt的发布,以LLM模型为主导的生成式大模型高速发展。在Chatgpt之前,AI发展通常以面向细分行业的小模型为主,追求较小运行成本下的较快商业化。Chatgpt问世之后,证明了“野蛮”堆砌参数与算力的生成式模型之路是可以走通的,因此,短期内全球AI模型开发的风向转向了堆砌参数与算力的模式。
随着GPT-4的发布,标志大语言模型正式迈入了多模态时代,参数量近一步膨胀。4月份,OPENAI创始人SAM Altman在一场MIT举办的活动上表示,“未来的AI进展不会来自于让模型变得更大”,我们认为,这代表着OPENAI之后的努力将会更多的转向如何让现有的大模型更好用,渗透进更多的场景。
从北美的趋势来看,当下,在大模型基础上,快速建立小模型生态,正是许多大模型龙头正在高速推进的发展方向。如何推动模型实现“人人可训,人人可用”已经成了海外大厂争相布局的方向。
4月12日,微软正式开源DeepSpeedchat训练模型,这个训练方式拥有三大核心优势,第一,简化ChatGPT类型模型的训练和强化推理体验,第二,DeepSpeed-RLHF模块,第三,DeepSpeed-RLHF系统。
基于这三大特性,DeepSpeed-HE 比现有系统快15倍以上,使RLHF训练快速且经济实惠。例如,DeepSpeed-HE在Azure云上只需9小时即可训练一个OPT-13B模型,只需 18 小时即可训练一个 OPT-30B 模型。这两种训练分别花费不到 300 美元和 600 美元。此外,该系统可以支持超千亿参数的模型训练,并且增强了对于单张显卡的训练支持,仅凭单个 GPU,DeepSpeed-HE 就能支持训练超过 130 亿参数的模型。
如果说DeepSpeedchat是模型界迈向应用与生态建设的第一步,那么在五月初的几大变化,让我们更加坚信了,万物搭载模型,模型赋能万物的时代正在加速到来。
首先,便是知名华人AI研究者陈天奇牵头开发的MLC-LLM解决方案,MLC LLM 为用户在各类硬件上原生部署任意大型语言模型提供了解决方案,可将大模型应用于移动端(例如 iPhone)、消费级电脑端(例如 Mac)和 Web 浏览器。
MLC的主要功能包括了:
(1)支持不同型号的 CPU、GPU 以及其他可能的协处理器和加速器。
(2)部署在用户设备的本地环境中,这些环境可能没有 python 或其他可用的必要依赖项;通过仔细规划分配和积极压缩模型参数来解决内存限制。
(3)MLC LLM 提供可重复、系统化和可定制的工作流,使开发人员和 AI 系统研究人员能够以 Python 优先的方法实现模型并进行优化。MLC LLM 可以让研究人员们快速试验新模型、新想法和新的编译器 pass,并进行本地部署。
其次,我们看到了随着Meta开源LLaMA,整个北美AI开发者中,正在快速兴起基于LLaMA的训练风潮,同时随着Lora等训练方法的加速渗透,我们判断,中小开发者蒸馏,训练,部署自由模型的成本正在快速降低,整个开源生态下,模型梯度分布的格局正在加速建立。
Lora训练法通过冻结预训练的模型权重,并将可训练的秩分解成矩阵注入到Transformaer架构的每一层,极大的减少了下游任务的可训练参数的数量,有效提升了预训练模型在下游任务的finetune效率。
上述的三种模型或解决方案,DeepspeedChat,MLC-LLM,Lora模型,其中Deepspeed与Lora模型给中小开发者提供了低成本,快速训练专属于自己的小模型的完整工具,而MLC-LLM则为中小开发者在算力较低的环境或者边缘进行模型的推理搭建了基础,三大工具,我们认为已经形成了AI走向边缘的“基建雏形”。
上文阐述了来自开源社区或者中小开发者参与的模型应用变化,在Chatgpt面世以来,大厂也在加速边缘推理能力,小模型的开发。
2月,全球手机与IOT芯片龙头高通,展示了其在搭载8Gen2的手机平台生利用StableDiffusion生成了图片,耗时小于15秒。在5月,高通通过持续优化,将生成图片的时间缩短至12秒。
高通通过与其芯片配套的全栈AI优化方案,将stable diffusion模型从FP32压缩至INT8,显著的降低了运行时延和能耗,从而实现了模型在手机算力上的安全高效推理。高通发布的全栈AI工具,包括了INT8转化,最小化内存溢出,适配Hexagon处理器的AI加速等功能,能够让OEM厂商快速在高通的算力环境中部署其AI应用。
在5月,谷歌也发布了其全新的语言大模型PaLM2,并作为发布会中大部分AI功能的基础模型,值得注意的是,PaLM2是一个拥有众多版本和参数量的模型体系,其包含了4个不同参数的模型,包括壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicorn),并在特定领域的数据上进行了微调,为企业客户执行某些任务。其中PaLM 2的最轻版本Gecko足够小,可以在手机上运行,每秒处理20个tokens,大约相当于16或17个英文单词,谷歌在模型梯度分布上的重视程度,也进一步验证了小模型作为AI渗透进入万千场景的必要性。
将视角拉回国内,国内厂商在边缘小模型上也正在加速布局,5月,中科创达发布Rubik魔方大模型,根据公司官网介绍,中科创达基于在机器人领域的深厚积累,中科创达将智能音箱与机器人进行融合,并通过中科创达魔方Rubik大模型的不断训练,已经实现了能够自由对话的智能销售机器人,可以自主回答客户关于企业及产品的各种问题,为企业营销及客户拓展提供了新的助力。
可以看出,除了开源社区和前沿学者正在不断加速模型的可用性,以及边缘推理的探索,越来越多的大厂也加入到了布局边缘模型的新一轮“军备竞赛”中来,我们认为,随着两方的共同努力,一个由“基础模型”,“低成本定制工具”,“模型优化工具”三者共同构建的边缘模型生产与利用体系将会飞速发展。
三、梯度分布,算力的终极呈现形式
当前市场主要聚焦于云端算力,但往往忽略了云端之外的算力同样重要,未来随着摩尔制成达到极限,数据传输成本,时延,隐私等等因素的影响,我们早在2022年发布的报告《算力革命:泛在、绿色与生态》中就强调了由运算算力,边缘算力,本地算力共同构成的“泛在”算力,是算力的终极存在形式。
算力当前的供需格局决定了,“泛在”或者是“梯度分布”将会是算力最终的呈现方式,云计算和边缘计算的有机结合:“云―边”一体有望流行。下面我们将从算力的供需角度,来阐述“泛在”的必要性。
供给端1:受到量子隧穿效应影响和商业化成本影响,硅基单核芯片制程将在3nm达到极限。硅基芯片晶体管的栅长在低于 3 纳米时极易发生量子隧穿效应(其原理为,当栅长缩小到一定程度的时候,即使没有加电压,源极和漏极都接近互通,晶体管便失去了开关的作用,因而无法实现逻辑电路)。因此,通过更加先进的纳米制程工艺提升单核芯片性能将面临技术上的严峻挑战。
由于量子隧穿效应的存在,3纳米后,单芯片成本将会急剧上升,华为与罗兰贝格数据显示,3 纳米制程手机端旗舰级 SoC 单芯片(以高通骁龙 855 为例)成本较 7 纳米显著增加约 200 美元,高昂的成本将会极大程度制约终端客户需求,最终降低算力供给的增加。
即使在能够接受较高成本的大型数据中心等用户中,处理器性能的提升依旧受到制约,受存储、系统、软件限制(性能)和单位算力功耗显著上升(功耗)两大因素影响,芯片核心数量将在128核达到上限。根据罗兰贝格数据,现有的冯・诺依曼架构下,通过拟合不同核心数量的芯片计算能力样本数据,我们发现多核处理器随核数增长,算力增长的倍数快速下滑:从2核增至4核时,总算力可提升1.74倍,而当核数由128核增至256核时,总算力水平仅能提升已跌破1.2倍(1.16X),已显著丧失经济性。
在单核性能以及多核提升带来的双重压制下,大型数据中心带来的增量算力边际增量将会迅速递减,而兴建大型数据中心需要的土地,人力,时间成本将在海量算力时代制约“集中式”的算力发展。
供给端2:算力爆发的背景下,网络性能限制和成本将会导致数据中心的算力难以满足复杂场景下的需求。网络带宽及网络时延共同决定了网络信道的传输质量,影响到网络算力的发挥。具体而言,“网络化”算力的使用需要经历终端与云端的数据双向传输过程,这段过程是通过网关、基站、数据中心等不同网节点之间的信道所实现的,其中信道的容量决定了传输的速率(带宽),信道的长度与材质决定了数据传输的时延,两者共同影响了数据传输的效率。
即使随着当今5G网络加速完善,无论从时延以及容量都相较于4G网络出现了较大程度提升,但相对于未来社会的海量数据需求来看,完全依靠IDC提供算力支撑仍是效率较低的选择,无论是智能驾驶对于时延的要求,亦或是传输高清视频图像等带来的大额带宽成本,都将进一步加剧“集中式”算力与“分布式”需求的错配。
供给端3:算力高能耗与全球双碳目标之间的矛盾
随着芯片制成逐渐接近量子隧穿效应发生的制程,当前主流芯片的能效比正在逐渐接近极限。单位算力功耗在过去 10 多年间经历了显著下降,但随着硅基芯片工艺制程提升的难度凸显,其进一步下探幅度有限,这意味着,等量算力的提升,即将对应等量能耗需求的提升。面对未来百倍的算力需求,高能耗问题将成为人类算力发展过程中的重要瓶颈。
同时,随着我国双碳目标的提出,对于数据中心的耗电量,PUE值都提出了更严格的要求,截至2020年底,中国数据中心耗电量已经突破2000亿千瓦时,能耗占全国总用电量的2.7%,随着数据中心进一步扩容,算力需求进一步提升,解决数据中心能耗问题的需求也愈发迫切。在可见的未来,具备低时延特性的核心城市IDC供给将进一步被压缩,如何通过有效的边缘侧处理手段,使得有限的核心城市算力资源得到充分利用,也是本轮“算力革命”急需解决的难题。
需求端:智能化社会大潮下,对应百倍流量增长需求。随着以人工智能、物联网、区块链、AR/VR等关键信息技术逐渐成熟,社会中大量智能化场景将得到实现。根据罗兰贝格报告,人工智能技术将推动无人驾驶、智能办公、智慧医疗等场景的有效落地,物联网技术将推动智能消防、智慧工厂、智慧农场、智能家居等场景落地,区块链技术将推动应用于数字证书、信息加密等场景落地,AR/VR 技术则可推动智慧商场、游戏、智慧课堂等场景落地。这些场景未来将在产业领域实现跨越式发展、助力各产业创新、增强产业数字化程度并增强市场活力,在政务领域帮助政府提升运行效率、提高城市管理水平、加强居民生活幸福度,在民生领域推动社会民生保障、创造宜居空间、实现可持续化发展,共同推动社会向智能社会发展。
根据华为《泛在算力报告》,在人工智能、物联网、区块链、AR/VR四大领域,到2030年,相比2018年,都将出现百倍到千倍的算力需求增长,同时对于网络的延迟也提出了更高的要求。
从算力需求看,人工智能技术对于算力的核心拉动点在于未来各应用场景内单设备芯片算力的增长和人工智能技术的行业渗透率的进一步提升,物联网主要通过低算力物联网设备的普及、配套云端计算中心和边缘端计算单元的增加共同拉动算力增长,区块链因安全问题要求的算力持续增长和应用场景的快速普及将带动以云服务器为主的算力增长,VR/AR设备的普及和普及需要的云计算中心和边缘计算设备算力配套将共同推动整体算力的增长。
从时延要求看,L3级别的自动驾驶对于传输时延的要求在10-20毫秒,在进入L4&L5级别后,对于传输时延的要求进一步提高到10毫秒以下;使用物联网建设智慧工厂对车间内部的局域网络带宽需要达到Gbps级别,最高时延须控制在5ms-10ms以内;在VR/AR游戏中,端到端的时延至少需要小于20毫秒,才能保证在使用过程中避免感知到明显的图像滞后而导致的眩晕。
由此可见,供给端的单芯片制程、能源限制,传输费用,与需求端的降本,能耗,时延所带来的供需错配,是算力走向泛在的核心因素。近年以来,我们也看到了中国为了解决算力调度问题所作出的努力,其中最具代表性的便是“东数西算”与三大运营商所提出的“算力网络”。
为什么要强调“东数西算”或者是“算力网络”的重要性,因为我们认为,脱离了“网络”的边缘算力是没有意义的,未来的边缘算力一定是通过“算力网络”,与云端大算力一起,实现智能融合与实时调度,边缘预处理的token通过算力网络,调用云端算力进行token,科研机构通过“算力网络”调度系统,实时分配与匹配各类不同的算力需求,可以说,“算力网”的作用,在AI时代,重要程度将不亚于通信网络。
当前,得益于我国“集中力量办大事”的优势,在“东数西算”这一顶层设计指挥下,我国在“算力网络”建设上已经取得了领先世界的进度。
首先是“东数西算”,“东数西算”工程首次提出于2021年5月24日的《全国一体化大数据中心协同创新体系算力枢纽实施方案》,此后,在国务院发布的《“十四五”数字经济发展规划》中,也再次将其作为一个重要章节进行部署。
根据官方解读,“‘东数西算’中的‘数’,指的是数据,‘算’指的是算力,即对数据的处理能力。”我国西部地区资源充裕,特别是可再生能源丰富,具备发展数据中心、承接东部算力需求的潜力。“东数西算”就是通过构建数据中心、云计算、大数据一体化的新型算力网络体系,将东部算力需求有序引导到西部,优化数据中心建设布局,促进东西部协同联动。简单地说,就是让西部的算力资源更充分地支撑东部数据的运算,更好为数字化发展赋能。
东数西算布局显示,整个工程共包含8大算力枢纽,承担我国算力网络的骨干连接点,发展数据中心集群,开展数据中心与网络、云计算、大数据之间的协同建设,并作为国家“东数西算”工程的战略支点,推动算力资源有序向西转移,促进解决东西部算力供需失衡问题。围绕每个枢纽节点,都规划设立了1至2个数据中心集群。算力枢纽和集群的关系,类似于交通枢纽和客运车站。国家发展改革委创新驱动发展中心副主任徐彬说,数据中心集群将汇聚大型、超大型数据中心,具体承接数据流量。集群将获得更好的政策支持、配套保障,同时在绿色节能、资源利用率、安全保障水平等方面也会有更严格的要求。
东数西算工程自2022年2月正式启动以来,经过超过一年多的准备,八个国家算力枢纽节点已经全部开工,正式进入全面建设阶段。截止3月17日,在已经开工的8个国家算力枢纽中,今年新开工的数据中心项目近70个,其中,西部新增数据中心的建设规模超过60万机架,同比翻了一番。至此,国家算力网络体系架构初步形成。
站在当前的AI爆发起点,我们再次回看“东数西算”工程,有道理相信国家的提前布局,大力投入,将会是我国“算力”实现高效利用,在AI时代抢夺先机的重要基建。
基于东数西算体系,“算力网络”的建设就显得更加顺其自然。“算力网络”是当前三大运营商建设的重要方向,三大运营商积累了众多的算力,机柜资源,如何通过“算力网络”的建设,使得用户实现“有网络的地方就有算力”,将是运营商建设“AI”时代核心资产的最重要方向。
中国移动的算力资源网络建设可以用“4+N+31+X”的数据中心布局来概括,即4热点区域+N中心节点+31省级节点+X边缘节点,中国移动近三年累计投资近900亿元,累计投产云服务器71万台,覆盖“东数西算”全部核心枢纽;深化云边端协同发展,实现中心云“一省一池”,建成边缘节点超1000个。
中国电信于2022年发布“云网融合3.0”,提出六大特征:云网一体、要素聚合、智能敏捷、安全可信、能力开放、绿色低碳。中国电信在智能算力领域布局相对领先,率先构建“6+31+N+X”的四级AI算力架构,将有力提升天翼视联网等重点业务的数智化能力。
中国联通明确推进架构先进、安全可靠、服务卓越的算力网络新布局,为数字经济打造“第一算力引擎”。制定《联通算网融合发展行动计划2022~2025》,提出通过云、网、边、端、业的高效协同提供算网一体化的新型算力基础设施及服务,打造基于算网融合设计的服务型算力网络,形成网络与计算深度融合的算网一体化格局,赋能算力产业发展。
从三大运营商的布局可以看出,算力体系基本由从中心节点到边缘资源池的四层体系构建,这也验证了我们上文所阐述的,算力梯度分布+算力网络建设是未来中国算力的最终形态,从三家运营商的表述中我们也可以看出,“X”即边缘,是未来我国算力网络的最重要组成部分之一,我们将在下一节中探讨,边缘算力网络资源部署的几种模式。
四、边缘算力,连接AI与用户的纽带
边缘计算,即将计算资源部署靠近用户和数据源的网络边缘侧,通过更靠近数据源或者最终用户的距离,从而实现更低的时延、更好的隐私以及更优的成本。进入大模型时代以来,我们认为边缘侧的定义应随着AI的发展进一步拓展,边缘计算应该当是离模型推理发生处最近的算力,或者是帮助云端算力进行预推理的算力。
不同于由超大型数据中心与智算中心形式部署的云端算力,边缘算力的部署形式随着智能设备以及边缘数据中心的出现变得愈发多样。我们认为,边缘算力的存在形式主要可以分为两类,第一类是通过边缘算力芯片提供,通过定制PCB板输出,或者通过模组形式输出。第二
..淘宝互助群二维码最新消息在哪里,淘宝互助群二维码最新消息在哪里,淘宝每天助力次数几次,一起探讨的618 狂欢盛典的玩法。你有兴趣加入我们的2023 618淘宝狂欢盛典618活动完了吗吗? 快进来,最新淘宝年中大促淘宝互助群二维码最新消息在哪里,2023 天猫618 狂欢盛典淘宝每天助力次数几次,天猫购物狂欢节最新淘宝互助群在哪,上万人一起互助
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。