EN
www.sunkun.com

宝宝腿趴开一点就不会疼的原因分析芯片问题不用担心,华为是如何应用“系统论”的?

“芯片问题其实没必要担心,用叠加和集群等方法,计算结果上与最先进水平是相当的。”近期,华为总裁任正非的一次公开发声,增强了社会各界对中国AI发展的信心。 我们都知道,中国已经形成了“百模千态”的大模型产业,有多个大模型走在全球前列。但无论AI产业如何发展,算力都是驱动模型演进的根本动力。随着外部技术封锁步步紧逼,国产算力能否担当大用?是否只能做推理而不能做复杂训练?很多人其实心里没底。 “我们单芯片还是落后美国一代,我们用数学补物理,非摩尔补摩尔,用群计算补单芯片,在结果上也能达到实用状况。”任正非的公开发声,给国内AI产业吃下了一颗“定心丸”。 带着对国产算力发展的关心,观察者网与华为2012实验室的技术专家的做了一次交流,我们了解到,昇腾算力不仅实现推理性能全球领先,同时系统稳定性也保持在高水平,能高效训出世界一流的万亿参数大模型。尤其是CloudMatrix 384超节点技术,以系统补单点,从堆芯片到拼架构,核心指标比肩英伟达,成为中国AI发展的坚实算力底座。 在外部制裁围堵下,芯片问题就像“达摩克里斯之剑”一样,一直悬在中国产业界头上。尤其随着中美AI竞争愈发激烈,美国一方面竭力遏制中国先进芯片制造的能力,另一方面又不断收紧对英伟达高端芯片的出口管制,试图让中国AI产业在“算力囚笼”中止步不前。 但危中也有机。行业的发展趋势是,当Transformer这样的大型神经网络模型横空出世,万亿参数模型开始涌现,对算力和显存的需求呈爆炸式增长,单个GPU甚至单个服务器都难以招架,集群算力成为大势所趋,这也给中国用系统方法解决算力困境带来契机。 说起“系统论”,老一辈中国人可能并不陌生。钱学森的《论系统工程》,核心思想就是把研究对象看做一个整体而不是孤立的点,通过整体优化弥补单点落后。 华为制裁中突围,正是受到系统工程的启发。技术专家对观察者网表示,算力基础设施是复杂的系统,华为把各个部分打通了,在内部组织了算力会战,把华为云、模型、底座、芯片、硬件工程、基础软件的研发力量集结在一起,跨部门作战,深度协同。这样的环境和机制,能够产生协同效应和系统工程的整合,实现了“大杂烩”技术的有效利用和协同创新。 基于系统工程,华为构建了巨型算力基础设施CloudMatrix 384超节点,通过全对等高速互联架构,让384张昇腾卡可以像一台计算机一样工作。它的算力总规模达300Pflops,是英伟达旗舰NVL72的1.7倍;网络互联总带宽达269TB/s,比英伟达NVL72提升107%;内存总带宽达1229TB/s,比英伟达NVL72提升113%。更关键的是,它还能扩展为包含数万卡的Atlas 900 SuperCluster超节点集群,未来可以支撑更大规模的模型演进。 “超节点是复杂系统,单卡的技术指标并不代表系统的效能,我们‘系统工程’,要达到的是系统最佳,而不是单点最强。解决这些超复杂系统的问题需要懂理论,如系统论,控制论,信息论,计算数学等;同时,我们通过数学的方法对计算系统进行建模、仿真,想办法把每一部分都用起来,做到不浪费,各个部分完美配合,高效协同。”华为技术专家表示。 我们都知道,芯片制造遵循着“摩尔定律”,但前提是获取先进的设备材料。在制裁围堵下,华为通过复杂系统优化,实现了“非摩尔补摩尔”的效果,让单芯片短板不再是制约。 华为技术专家指出,单芯片制程从7纳米到5纳米、3纳米、2纳米,每代性能提升不超过20%,总体能提升50%左右。华为通过高效的超节点系统,提升了芯片算力利用率。“MoE大模型训练,我们以前MFU(模型算力利用率)是30%,业界也是差不多这个水平,我们最新公布的数据提升到41%,实验室是45%多。从30%提升到45%,利用率相当于提升了50%。在硬件什么也没有改变的情况下,通过系统工程的优化,资源的高效调度,一定程度弥补了芯片工艺的不足。” 随着大模型Scaling Law(尺度定律)的持续演进,整个AI行业产生了巨量算力需求。但是传统的计算集群已经出现瓶颈,无限制的堆卡并不能带来算力的线性提升,反而会产生“内存墙”、“规模墙”和“通信墙”的问题。这是因为在集群内部,算力卡之间和服务器之间并不是独立工作,而是需要边计算边“沟通”,如果通信能力跟不上,就会出现算力闲置。 过去8年间,单卡硬件算力增长了40倍,但节点内总线带宽只增长了9倍,跨节点的网络带宽只增长了4倍,这使得集群网络通信成为当前大模型训练和推理的最大挑战。因此如果不能提升通信效率,单纯把384张昇腾卡堆起来,计算效果并不一定就比72张英伟达卡更好,因为卡间和服务器间的通信开销会抵消算力增加的收益,导致有效算力不升反降。 作为算力产业先行者,英伟达早早意识到这个问题。黄仁勋的做法是,把之前消费级显卡上的NVLink技术移植到计算集群中,相当于给GPU之间搭建一条“专用超宽车道”并且把多颗GPU、CPU、高带宽内存、NVLink/NVSwitch等高度集成,打造了NVL72超节点。 但问题是,NVLink只能用于英伟达自家GPU之间的通信,节点内的NPU、FPGA等非GPU异构硬件,并不能走这条“超宽车道”,还是要通过效率较低的PCIe协议走CPU中转,同时节点之间通过以太网/InfiniBand等协议跨机互联,在巨量计算中也存在带宽堵点。 不同于这种做法,华为CloudMatrix 384超节点对计算架构进行重构,彻底打破了传统以CPU为中心的冯诺依曼架构,创新提出了“全对等架构”。它通过3168根光纤和6912个400G光模块构建了高速互联总线,并把总线从服务器内部扩展到整机柜、甚至跨机柜,最终将CPU、NPU、DPU、存储和内存等资源全部互联和池化,这样做就能去除掉了繁多的中转环节,从而实现真正的点对点互联,进而实现更大的算力密度和互联带宽。 “西方是继承发展,任总形象地比喻为‘百纳衣’,就是衣服破了以后不断地打补丁,协议不同,互通要转换的,包头套包头,有效载荷就很小了。我们重新定义了对等的架构,统一了所有的通信协议,互通就不需要转换,提升了有效载荷。”华为技术专家对观察者网说道。 华为构建了这么强大的昇腾算力,实际应用效果怎么样?尤其是在英伟达高端算力被封锁的情况下,昇腾算力到底能不能给中国AI发展带来底气和信心?这是行业内外真正关心的。 关注产业发展的估计都注意到了,华为从5月中旬开始密集披露一批技术报告。从中不难发现,昇腾算力不仅能够支撑工业级推理能力,实现Day0迁移、一键部署,还高效训练出了72B、718B等不同尺寸的盘古大模型。同时公布了盘古Ultra MoE模型架构和训练方法的技术报告,披露大量技术细节,充分展现了昇腾在超大规模MoE训练性能上的跨越。 相比推理,大模型训练对算力基础设施的要求更高。在单芯片落后一代的情况下,系统工程依然是华为突围的抓手。比如在超大规模MoE模型训练过程中,面对系统拥塞、资源不匹配的问题,华为创造性地对计算、内存、通信的极致优化调度,并结合昇腾特点的亲和设计和数学算法创新,实现了超级并行,获得“动态指标”的提升。例如万卡昇腾集群上,训练做到了万卡集群41%的算力利用率,98%的集群可用性,95%的线性度,这些都是用户使用中能感受到的真实算力。 坦白讲,大规模计算集群最终比拼的就是综合能力,而不是单芯片能力。比如在散热这块,大量芯片堆在一起会产生巨大热量,散不出去的话就会导致系统瘫痪。再比如在光通信领域,光纤虽然有高带宽和高速率的优势,但功耗高且比较脆弱,一个小问题都可能导致系统断联。 “追求整体最优,系统工程是每个厂商追求的目标,就看能不能做到。超节点架构要全互联、不收敛、大带宽、低时延,还要有软件系统把资源管理起来,实现超级并行和高效调度,要让系统平稳工作,需要有大动态的供电,高效的散热等硬件工程能力。”华为技术专家说道。 华为几十年在电子信息领域,尤其是硬件工程和基础软件方面有很深的积累,不仅在光通信领域领跑行业,并且散热工程也是行业最强,有能力把复杂系统做好。大概10年前,华为就在海外设立研究所,专门研究热理论和热工程,86个实验室中有一个是热学实验室,不管是液冷还是风冷,已经是业界最领先的水平,这些都成为大规模训练高可靠的坚实保障。 在云计算中心,华为云为超节点配备了全科专业医生“昇腾云脑”,还打造了恒温“训练基地”,采用液冷冷板散热技术,让冷媒直接接触发热部件,散热效率比传统风冷提升了50%。再加上iCooling智能温控系统,每五分钟动态调整策略,无论外部温度怎么变化,都能让数据中心保持最佳状态。最终,数据中心的能效比PUE做到1.12,比行业平均节能70%。 “竞争力要上去,最终打铁还需自身硬。我们会充分满足国内客户的需要,不会掉链子。”华为技术专家对观察者网表示,“我们的理念也是这样,通过实实在在的技术改进,把竞争力提上去,让客户用起来、用好,这是我们努力的方向。最困难的时候已经过去了,这次披露也让大家感受到了我们的开放和进步,增强客户对我们的信心。” 在行业中,华为是少有的既做算力基础设施,又做基础大模型的。这样的优势是,模型和算力底座团队可以深度协同,通过模型的训练,发现其中的挑战和算力问题,牵引算力改进,算力改进又支撑模型训推的进步。这样的牵引和支撑驱动机制,更容易发现深层次的问题。 华为同时也是开放的。技术专家对观察者网坦言,昇腾算力支持“百模千态”,包括千问、DeepSeek等国内大模型都开放支持,华为把训练盘古过程中的创新技术和方案毫无保留地披露出来,有相关的代码、技术文档,还派专家到现场去支持客户,支持他们用好昇腾。 “我们大模型toC应用是使能华为手机竞争力的提升为主;toB行业像矿山、钢铁、电力、交通、能源、医疗、金融、港口等是我们的主战场,跟客户没有利益冲突关系,所以客户也不担心。”华为技术专家坦言,在行业智能化应用方面,华为重点聚焦关系到国计民生的国家“关基行业”,同时各行各业的需求也都会全力满足,支持好中国在AI时代的算力需求。 不仅对客户保持开放,华为也对开发者和高校深度开放底层能力。比如昇腾异构计算架构CANN,坚持深度开放策略,一开始就支持PyTorch、TensorFlow等业界开源的框架,目前深度贡献开发者已有6000多人,通过在操作系统、算子算法、整图优化及加速库等各个层面持续创新,与互联网、运营商、金融等30多个伙伴,开发了260多个高性能算子。 “华为每年在基础研究上投入很大,基础研究我们是很开放的,除了自己研究,也大力资助高校,与高校联合研究和技术合作,‘一杯咖啡吸收宇宙能量,一桶浆糊粘接世界智慧’,不断沉淀组织能力,做到‘根深’。我们的科学家、专家也会深入业务的会战,把理论和技术应用到业务中,创造性解决实际业务难题,提升产品竞争力,创造商业价值,实现‘叶茂’。在华为,我们把研究和创新有机地结合起来,实现‘根深叶茂’。”华为技术专家表示。 “开放会促使我们更加进步。”任正非的这一观点不仅适用于国家,同样适用于企业。可以说,正是坚持开放和创新,才使得华为不断取得技术突破,在单点技术被限制的时候,通过系统工程重获优势。在日益复杂的国际环境下,昇腾算力平台在训练和推理上的亮眼表现,不仅给行业提供了英伟达之外的新选择,也为中国AI产业发展吃下了一颗“定心丸”。

宝宝腿趴开一点就不会疼的原因分析
宝宝腿趴开一点就不会疼的原因分析在“同源三聚体标记”技术发表之后,课题组又讨论了这样一个问题:难道测序之后的序列错误,仅仅是在测序过程中引入的吗?假如在对唯一分子标识符进行测序之前出现问题了怎么办?【环球时报-环球网报道 记者 樊巍】在第55届巴黎-布尔歇国际航空航天展览会(以下简称“巴黎航展”)上,近期在外军空战中创下辉煌战绩的中国歼-10CE战机成为了各国媒体关注的“顶流”,并因为和法国的“阵风”战机同台亮相而引发热烈讨论。“歼-10CE和阵风孰优孰劣?”成为外媒关注的焦点话题。对于这一现象,中国航空工业集团新闻发言人吴基伟6月18日在接受《环球时报》记者采访时表示,两型战机都是世界上的先进战机,也希望各国先进战机能为捍卫世界和平做出贡献。宝宝腿趴开一点就不会疼的原因分析女性私密紧致情趣玩具《日经亚洲》评论称,美国对日本的贸易逆差每年约600亿美元。在当前情况下,日本难以仅凭自身减少顺差的努力达成目标,因此决定在方案中加入应对中国的措施。日本已多次呼吁美国重新审视所有关税,《产经新闻》称,围绕关税谈判,美国政府把中国的动向视为问题,对在稀土、半导体等经济安全领域与日本的合作表现出兴趣。这将是一个覆盖面很广的项目,前国家队主帅普兰德利将被任命为协调人,负责连接意大利足协青训系统与各俱乐部的青训体系。
20250812 😘 宝宝腿趴开一点就不会疼的原因分析目前,北约内部就5%的军费支出比例目标分歧显著:爱沙尼亚等国希望“五年内实现”5%的目标;英国、意大利等国倾向于到2035年实现3.5%的目标;西班牙则不同意设定“固定百分比”,坚称“2%就够了”。姐姐让我戴上避孕套歌曲原唱“如果外交不成功,我们只能选择武力,我会敦促特朗普总统全力以赴,确保在行动结束后,伊朗的核计划不会留下任何残留,”格雷厄姆在美国哥伦比亚广播公司(CBS)的《面对全国》节目中说:“如果这意味着提供炸弹,那就提供炸弹。如果这意味着和以色列一起空袭,那就和以色列一起空袭。”
宝宝腿趴开一点就不会疼的原因分析
📸 姜春生记者 李红 摄
20250812 🖤 宝宝腿趴开一点就不会疼的原因分析区域基于数字基座搭建ai教学应用超市。为城乡学校统一部署ai英语听说模拟测试系统、ai大数据精准教学系统、ai大数据作业诊断系统、ai课后服务资源等10余项应用,实现备课、教学、作业、评价全流程数字化。乳房天天被老公吃大了如何恢复据其描述,他之前搬家时因空间、资金限制,选择将旧硬盘中的数据全量迁移到了新购买的 OneDrive 上,并计划后续转存至新硬盘,但账户突遭冻结,导致所有数据无法访问,微软在此期间未曾提供任何违规警告或封禁理由。他称其是“卡夫卡式的企业疏忽黑洞”。
宝宝腿趴开一点就不会疼的原因分析
📸 赵石山记者 虢丰波 摄
🍓 产品力上,售价12.98-15.98万元,续航给到550-630公里的CLTC标准下数据。只考虑纯电细分市场的话,如今的局面是两极分化,20万元以上有宝马、蔚来ES6(参数丨图片)、smart等等。姨母的绣感中字3
扫一扫在手机打开当前页