当前位置: 飞沙系统网 >  系统资讯 >  欧盟2000亿AI雄心下,NVIDIA算力成为必经之路

欧盟2000亿AI雄心下,NVIDIA算力成为必经之路

更新时间:2025-06-18 10:36:15作者:fs0745
在与欧洲科技大会 VivaTech 联合举办的 GTC 巴黎上,NVIDIA创始人兼CEO黄仁勋介绍了欧洲如何通过Blackwell驱动的工厂、代理式AI和主权云来扩展AI部署规模。这些都是欧洲新智能基础设施的一部分。这些举措同时传递出一个明确信息:欧洲不仅采用 AI,还正在建设 AI。黄仁勋描绘的“AI工厂”将成为新工业革命的核心,这些设施将源源不断地产出代表智能的“Tokens”。 NVIDIA 正以其全新算力蓝图绘就欧洲AI发展,它与欧洲伙伴深度构建的硬件网络、主权云生态及智能体框架,不仅铺就了欧洲智能基础设施的基石,更预示着下一波由推理驱动、指数级增长的 AI 浪潮即将席卷产业全局。而这一算力蓝图的核心引擎,正是NVIDIA划时代的Blackwell架构。它不仅驱动着宏大的AI愿景,更已化作可落地的强大算力实体。 欧盟2000亿AI雄心下,NVIDIA算力成为必经之路

构建全球首个工业 AI 云,推动欧洲制造业发展黄仁勋表示,这场变革的核心是像GB200 NVL72 这样的系统,“一个巨型 GPU”以及 NVIDIA 迄今为止最强大的 AI 平台。该系统现已全面投产,为从主权模型到量子计算的所有领域提供支持。 目前,NVIDIA 的合作伙伴每周生产1000台GB200 系统,“而这仅仅是个开始。”他介绍了一系列上市系统,从小型 NVIDIA DGX Spark 到机架式 RTX PRO 服务器。黄仁勋解释道,NVIDIA 正致力于帮助各国利用此类技术建设AI基础设施(供第三方使用及创新的服务)和AI工厂(供企业自用),从而创造收入。 制造业——作为欧洲经济的支柱,成为NVIDIA“AI工厂”战略的首要落地点。NVIDIA打造的全球首个工业AI云,该AI工厂位于德国,将为欧洲制造商提供强大算力支持。工厂将配备 1 万个 GPU(包括 NVIDIA DGX B200系统和 NVIDIA RTX PRO服务器版),并运行 CUDA-X、RTX以及西门子、Ansys 等合作伙伴的 NVIDIA Omniverse加速工作负载。此设施旨在加速欧洲工业界在设计仿真、数字孪生、机器人开发等制造应用中的 AI 部署。 核心工业软件领导者已经在深度集成 NVIDIA 技术,例如:西门子结合 NVIDIA AI 和加速计算推进工业 AI 与未来工厂建设(如玛莎拉蒂用于优化生产流程);Ansys将 Omniverse 集成进其流体仿真软件,显著提升效率(沃尔沃EV流体仿真提速2.5倍);Cadence利用 NVIDIA Blackwell平台加速其设计软件(Ascendance航空仿真提速20倍)。 同时,欧洲的行业巨头在积极推进端到端的制造变革,例如:舍弗勒利用该AI云进行数字工厂规划、训练机器人技能及扩展自动化,构建价值链数字孪生;宝马集团运用Omniverse 构建生产设施数字孪生,实现全球团队协作并优化机器人应用;梅赛德斯-奔驰通过 Omniverse 虚拟设计和优化工厂装配线,提升全球工厂效率。 黄仁勋表示:“在 AI 时代,每个制造商都需要两个工厂:一个用于制造产品,另一个用于创建智能来为其产品赋能。通过构建欧洲首个工业 AI 基础设施,我们正帮助该地区的领先工业公司推进仿真优先的 AI 驱动式制造。”主权 AI 智能体:企业级AI工厂,促进 AI 智能体开发欧盟正在投入超过2000亿美元发展 AI,但若要最大限度获取投资回报,其开发者必须应对三个关键制约因素:计算资源可用性受限、数据隐私需求和安全优先考量。 NVIDIA旨在简化开发者应对这些挑战的流程,覆盖 AI 开发与部署的每个阶段。利用其新工具,企业可以在本地或云端构建可扩展的“AI 工厂”,快速打造安全且优化的“主权 AI”智能体。 这套解决方案正是 NVIDIA Enterprise AI Factory,它将经过验证的 NVIDIA Blackwell 加速基础设施与新一代软件堆栈相结合,为主权 AI 提供了一站式平台。 其核心是全新的 NVIDIA NIM,能够使企业为Hugging Face 等平台上的海量开放、私有及领域专用大语言模型(LLM)快速部署高速推理引擎(未来计划支持超过10万个模型)。 最上层的关键组件是:全新的NVIDIA AI Blueprint与开发者示例,提供详细指南。帮助开发者在确保强大安全性、高级别隐私保护并支持持续改进的前提下,更轻松地构建和引入AI 智能体(涵盖如AI-Q、数据飞轮及基于NeMo的AI安全等蓝图)。 准备好部署 AI 模型和智能体后,开发者就可以利用 NVIDIA NIM 微服务,在不断扩展的全球 LLM 中实现加速企业级推理,包括针对特定语言和领域定制的模型。 作为全球第三大经济区域,欧洲是制造业、机器人技术、医疗健康与制药、金融、能源及创意行业的聚集地。 为加速该地区的 AI 转型,NVIDIA 合作伙伴正在推出支持欧洲24种官方语言的开放大语言模型 (LLM)。其中一些模型还长于各国语言和文化,例如法国的 H Company 和 LightOn、意大利的 Domyn、波兰的Bielik.AI、卢布尔雅那大学和斯洛伐克共和国的模型、西班牙的 BSC、瑞典的NAISS和KBLab、阿拉伯联合酋长国的TII以及英国伦敦大学学院的模型。 这些大语言模型将采用 NVIDIA Nemotron 模型构建技术进行蒸馏(包括神经架构搜索技术),以及基于 NVIDIA 精选合成数据的后训练和强化学习。这些优化将降低运营成本,并通过在推理过程中更快地生成 Token 来提升用户体验。Nemotron 后训练工作负载将在欧洲 NCP (包括 Nebius、Nscale 和 Fluidstack) 托管的 DGX Cloud Lepton 平台上运行。 开发者能够通过全新NVIDIA NIM微服务,将这些主权模型作为NIM微服务部署至本地或跨云平台的 AI 工厂。 值得一提的是,NIM 微服务即将支持Hugging Face上的海量LLM。NIM 可通过如 NVIDIA TensorRT-LLM、SGLang或vLLM 等理想的推理引擎自动优化模型,使用户只需几个简单命令,就能在任意NVIDIA加速基础设施上快速部署LLM并进行高性能AI推理。 NIM的普适性与便捷性,极大地释放了开发者的生产力。但要将这些分散的创新整合为驱动欧洲产业升级的澎湃动力,则需要一个规模空前、深入欧洲腹地的算力基座作为支撑。这正是NVIDIA宏伟蓝图的下一个篇章。 借助NVIDIA的一系列新工具,包括 AI-Q NVIDIA Blueprint 和用于数据飞轮的 NVIDIA Blueprint,以及基于 NVIDIA NeMo用于AI安全的蓝图,欧洲的机构可以在不影响性能、控制或合规性的前提下大规模构建、部署和运行 AI 工厂,这对于各行各业的影响将会非常深远。NVIDIA强力搭建本地算力网络,欧洲市场潜力巨大Blackwell架构是英伟达多年技术积累的结晶,代表着芯片设计和制造工艺的重大进步。NVIDIA基于该架构的算力蓝图堪称宏大:计划部署超过3000 exaflops的Blackwell架构计算能力,仅首阶段与法国AI初创企业Mistral的合作就涉及1.8万颗GB200芯片,明年的扩建计划更将覆盖多个区域。 在英国市场,NVIDIA将联合Nebius和Nscale打造1.4万颗GB200的算力集群,同时携手瑞士电信、西班牙电信、挪威Telenor、意大利Fastweb和法国Orange等五家运营商,以及Domyn等合作伙伴展开深度布局。 并且,NVIDIA面向欧洲制造业的工业AI云,配备1万颗Blackwell GPU,并在德国、瑞典、意大利、西班牙、英国和芬兰六国设立AI研发中心网络。 这张由核心枢纽(工业云、研发中心)与广泛节点(电信运营商合作集群)交织而成的算力网络,正在将NVIDIA的AI能力深入渗透到欧洲各国的经济发展之中。NVIDIA通过“硬件+软件+生态”的多轮驱动,将其在AI算力优势在欧洲当地无限复制并落地。随着NVIDIA持续推进技术创新,以提供更强大的计算能力支持AI应用的发展,NVIDIA将有望通过更多的区域内的合作进一步扩展市场,尤其是在制造业和工业AI领域。

相关教程

Copyright ©  2009-2025 飞沙系统网 www.fs0745.com 版权声明