24小时故障咨询电话点击右边热线,在线解答故障拨打:400-996-1195
肇庆房屋维修400报修电话_特斯拉全自动驾驶系统故障频发,小鹏与大众合作在中国建立超高速充电网络|海外日报

肇庆房屋维修400报修电话

全国报修热线:400-996-1195

更新时间:

肇庆房屋维修维修服务热线号码2025已更新(2025已更新)








肇庆房屋维修售后服务24小时电话:(1)400-996-1195(点击咨询)(2)400-996-1195(点击咨询)








肇庆房屋维修24小时客服热线(1)400-996-1195(点击咨询)(2)400-996-1195(点击咨询)








肇庆房屋维修24小时维修服务电话《今日发布》
 
肇庆房屋维修附近上门服务电话








7天24小时人工电话客服为您服务、肇庆房屋维修服务团队在调度中心的统筹调配下,线下专业网点及各地区人员服务团队等专属服务,整个报修流程规范有序,后期同步跟踪查询公开透明。








我们公司上门维修品牌:美的、海尔、格力、春兰、海信、约克、大金、麦克维尔、TCL、志高、澳柯玛、新科、奥克斯、扬子、华凌、清华同方、富士通、海信、三洋、雷诺士、迎燕、特灵、LG、商用、顿汉布什、日立、三菱、开利、台佳、澳柯玛、三星、长虹、现代、春兰、贝莱特、古桥、松下、森宝、波尔卡、澳柯玛、东宝、科龙、华宝、索华、威力、蓝波、华凌、上凌、双鹿、新科、飞歌、格兰仕、汇丰、康拜恩、乐声、内田、小鸭、长府、惠而浦、绅宝、胜风、飞鹿、凉宇、东洋、飞利浦、惠而浦、伊莱克斯、现代、樱花、华蒜、小超人、卡萨帝、三菱重工、三菱电机、盾安、国祥、立冰、科希曼、依米康等国内外各种品牌
服务内容:中央空调、柜机、天花机、吸顶机、螺杆机、挂机、水冷机、新风机、多联机、风管机、精密空调等空调维修、安装、移机、清洗、加氟、回收、二手机售卖、拆机等服务。








肇庆房屋维修维修网点查询








肇庆房屋维修24小时维修服务电话全国服务网点:
 
 北京市(东城区、西城区、朝阳区、崇文区、海淀区、宣武区、石景山区、门头沟区、丰台区、房山区、大兴区、通州区、顺义区、平谷区、昌平区、怀柔区。)








天津市(和平区、河东区、河西区、南开区、河北区、红桥区、塘沽区、东丽区、西青区、)








石家庄市(桥东区、长安区、裕华区、桥西区、新华区。)








保定市(莲池区、竞秀区)  廊坊市(安次区、广阳区,固安)








太原市(迎泽区,万柏林区,杏花岭区,小店区,尖草坪区。)








大同市(城区、南郊区、新荣区)








榆林市(榆阳区,横山区)朝阳市(双塔区、龙城区)








南京市(鼓楼区、玄武区、建邺区、秦淮区、栖霞区、雨花台区、浦口区、区、江宁区、溧水区、高淳区)  成都市(锡山区,惠山区,新区,滨湖区,北塘区,南长区,崇安区。)








常州市(天宁区、钟楼区、新北区、武进区)








苏州市(吴中区、相城区、姑苏区(原平江区、沧浪区、金阊区)、工业园区、高新区(虎丘区)、吴江区,原吴江市)








常熟市(方塔管理区、虹桥管理区、琴湖管理区、兴福管理区、谢桥管理区、大义管理区、莫城管理区。)宿迁(宿豫区、宿城区、湖滨新区、洋河新区。)








徐州(云龙区,鼓楼区,金山桥,泉山区,铜山区。)








南通市(崇川区,港闸区,开发区,海门区,海安市。)








昆山市 (玉山镇、巴城镇、周市镇、陆家镇、花桥镇(花桥经济开发区)、张浦镇、千灯镇。)








太仓市(城厢镇、金浪镇、沙溪镇、璜泾镇、浏河镇、浏家港镇;)








镇江市 (京口区、润州区、丹徒区。)








张家港市(杨舍镇,塘桥镇,金港镇,锦丰镇,乐余镇,凤凰镇,南丰镇,大新镇)

特斯拉全自动驾驶系统故障频发,小鹏与大众合作在中国建立超高速充电网络|海外日报

作者 | 周一笑邮箱 | zhouyixiao@pingwest.com

继电动车、消费品之后,中国团队又在AI领域上演了一出“成本屠夫”的好戏。

用两个月、600万美元,就能训出一个能跟ChatGPT掰手腕的AI模型?Deepseek用实力演绎了“四两拨千斤”是什么意思。

幻方量化旗下的DeepSeek公司宣布发布全新系列模型DeepSeek-V3首个版本,并同步开源。他们仅用2048块H800显卡、耗时两个月,就训出了一个6710亿参数的DeepSeek-V3。相较于Meta训练参数量4050亿的Llama 3,用了16,384块更强的H100显卡,花了54天。Deepseek的训练效率提升了11倍。

这事儿一出,连CNBC都坐不住了。在最新报道中,记者亲自上手测试后惊呼:“这模型的能力完全能和OpenAI掰手腕”。

DeepSeek-V3在技术圈收获的关注和讨论,堪比游戏界的《黑神话:悟空》,其影响力甚至让OpenAI CEO奥特曼坐不住了,发推特暗戳戳说“复制总比创新容易”。而市场也开始担心:要是人人都能用这么低的成本训练AI,那些靠卖显卡发财的“卖铲人”可就要慌了,英伟达股价甚至一度应声下跌。

不过OpenAI另一位联合创始人Karpathy表示,这并不意味着前沿LLM不需要大型 GPU 集群,而是说明AI领域的数据和算法还有很多黑科技等着被挖掘。

那么,Deepseek是如何做到这种惊人的训练效率的?答案就在他们独特的技术方案中。

1

少即是多:DeepSeek-V3 高效 AI 训练的新方法

DeepSeek-V3的训练效率水平揭示了其巧妙的训练方法——关键在于更聪明地工作,而非单纯依赖更多硬件投入。

具体来看,Deepseek采用了由2048块Nvidia H800 GPU组成的集群,每块GPU通过NVLink互连实现GPU间通信,并通过InfiniBand互连实现节点间通信。在这种配置下,GPU间通信速度相当快,但节点间通信则不然,因此优化是提升性能和效率的关键。DeepSeek实施了数十项优化技术以降低其 DeepSeek-v3 的计算需求,但几项关键技术促成了其令人瞩目的成果,包括:

MoE

不同于单一庞大的神经网络,DeepSeek-V3 采用了MoE架构(Mixture of Experts)。MoE的核心理念可以这样理解:有一群各个领域的专家,共同协作解决问题。面对用户的任务,系统会智能地识别出最适合的专家来处理,通过稀疏激活机制大幅减少计算量。

MoE与密集模型(Dense Model)在训练成本上存在显著差异。尽管MoE模型通常包含更多的参数,但由于其稀疏激活机制,每次仅激活部分专家网络,从而在相同计算预算下实现更大的模型容量和更高的性能。这使得 MoE 模型在预训练阶段比同等规模的密集模型更高效,能够以更低的计算成本达到相似或更优的性能。

DeepSeek-V3采用了多个小型专家的MoE结构设计,而非像Mixtral那样使用少数大型专家。这一设计让模型在总参数量达到671B的同时,实际运行时只需激活37B参数,大大提升了模型的稀疏性。

MLA

DeepSeek-V3的另外一个创新是多头潜在注意力(Multi-head Latent Attention,简称 MLA),这是大型语言模型中常用注意力机制的增强版本。

MLA是De­e­p­S­e­ek独创的结构,在DeepSeek-V2中提出,其核心概念可以这样理解:在阅读复杂内容时,我们的大脑不仅仅处理每个单词,还会捕捉到其中的联系和暗示。MLA让DeepSeek-V3能够类似地同时关注不同部分的信息,从而获得更丰富的理解。这在连接信息点时特别有用,比如解决复杂的数学问题或编写代码。

FP8

Nvidia H800是专为中国市场定制的、性能较其原型Nvidia H100大幅削弱的版本。H800限制了集群卡之间的互连速度:约400GB/s,而H100可达到高达900GB/s。

这种性能瓶颈,使得降低计算和通信成为降低训练成本的关键,DeepSeek 运用了 FP8 混合精度框架,实现了更快的计算速度和更低的内存占用,同时不牺牲数值稳定性。关键操作如矩阵乘法以 FP8 进行,而敏感部分如嵌入层和归一化层则保持较高精度(BF16 或 FP32)以确保准确性。这种方法在减少内存需求的同时保持了稳健的准确性,相对训练损失误差始终控制在 0.25%以内。

FP8精度的使用是DeepSeek-V3的重大创新,V3是第一个成功使用FP8混合精度训练得到的开源大参数MoE模型。这意味着它所需的内存更少,并能显著加快计算速度。

Du­a­l­p­i­pe

DeepSeek团队开发的DualPipe算法改进了流水线并行性能,通过计算和通信阶段的重叠设计,有效降低了跨节点专家并行带来的通信开销。同时,他们优化了跨节点通信内核,提高了带宽利用率,减少了通信所需的计算资源。DualPipe算法显著缓解了训练瓶颈,尤其是MoE架构所需的跨节点专家并行性,这些优化使得团队无需使用成本较高的张量并行技术就能完成V3的训练。

1

算力利空?硬件限制催生软件创新

在外界看来,DeepSeek在芯片性能较差、资金和GPU使用时间更少的情况下,依然能够取得更好的表现。考虑到他们所面临的 AI 硬件资源的限制,这一成就尤为值得关注。

2022年10月,为阻止中国成为人工智能与计算领域的超级大国,美国对中国实施了广泛的芯片出口限制:这是中美之间持续进行的“芯片战争”中的众多打击之一。

这些芯片限制的初衷,目的是想通过掐断中国获取顶尖硬件的渠道来限制中国在AI领域的发展。为应对新规,并维持在中国市场的竞争力,英伟达推出了针对中国市场的“定制版”H800芯片。

DeepSeek-V3的成功,可能预示着一个有趣的转折:软件创新正在突破硬件限制。如果他们的技术报告属实,这或许意味着中国在芯片竞争中已经占了上风。理论上受限制的芯片应该会限制他们的研发突破。但事实上,Deepseek在研究和产品方面都取得了重大进展,证明了另辟蹊径的可能性。

正因为中国工程师拿不到最好的硬件,客观上促进了中国工程师在算法、架构、训练策略等软件层面的创新,“被迫”开发出新方法来充分利用手头的资源,甚至突破了传统所认为的极限。反而逼出了更多软件层面的创新,而不是单纯靠硬件堆砌。

这反倒让美国限制中国的战略变得很讽刺。如果软件技术越来越强,那用什么硬件可能都不重要了。

不过,DeepSeek V3在技术成就之外也引发了一些争议,用户发现该模型会在某些情况下声称自己是ChatGPT。

一种可能的解释是,DeepSeek-V3的训练数据集中可能混入了ChatGPT的生成内容,导致模型在学习过程中产生了混淆。另一种可能性是,DeepSeek在训练过程中使用了GPT模型进行知识蒸馏,即利用GPT模型的输出作为 “教师信号”来指导DeepSeek-V3的学习。

一位大模型从业者告诉硅星人,“数据蒸馏对成本的影响不大,如果只是靠数据蒸馏,为什么其他人没做到呢?Deepseek一定是靠自己独特的训练和工程实践方法。”

在压力和限制之下,创新往往会以意想不到的方式涌现。中国工程师们正在用实际行动证明,即便面临硬件限制,依然能在AI领域做出令人瞩目的成果。这种由需求驱动的创新,很可能继续带来一些突破性的思路。

对于人工智能行业而言,DeepSeek-V3 预示着大型语言模型开发方式可能迎来范式转变。通过巧妙的工程设计和高效的训练方法,前沿的人工智能能力或许可以在不依赖庞大计算资源的情况下实现。随着DeepSeek-V3的出现,市场变得更加多元化,为开发者、内容创作者乃至小型初创企业提供了更多选择。

当然,如果未来OpenAI、Meta等公司利用更庞大的算力集群训练出性能更为卓越的模型,行业可能会再次掀起对超大规模预训练的热潮。

届时,行业可能会重新回到算力军备竞赛的老路,AI领域的“卖铲人”将继续成为最大赢家。

相关推荐: