科技巨头斥资千亿加码AI硬件竞赛
继谷歌和微软之后,Meta宣布将投入超过1000亿美元用于下一代AI基础设施建设,以应对日益增长的算力需求。
Meta公司今日宣布,计划在2026年投入超过1000亿美元,用于扩展其全球AI数据中心和硬件设施。此举旨在支持其不断发展的AI模型和元宇宙业务。据悉,这笔投资将主要用于采购最新的GPU、自研芯片以及构建更高效的冷却系统。分析人士认为,随着AI竞赛的白热化,科技巨头们正在进行一场前所未有的“军备竞赛”,以确保在未来的技术浪潮中占据领先地位。
共 4 条相关资讯
继谷歌和微软之后,Meta宣布将投入超过1000亿美元用于下一代AI基础设施建设,以应对日益增长的算力需求。
Meta公司今日宣布,计划在2026年投入超过1000亿美元,用于扩展其全球AI数据中心和硬件设施。此举旨在支持其不断发展的AI模型和元宇宙业务。据悉,这笔投资将主要用于采购最新的GPU、自研芯片以及构建更高效的冷却系统。分析人士认为,随着AI竞赛的白热化,科技巨头们正在进行一场前所未有的“军备竞赛”,以确保在未来的技术浪潮中占据领先地位。
新一代GPU性能提升显著,旨在满足日益增长的AI算力需求
英伟达公司今日正式发布其最新一代AI芯片架构“Blackwell Ultra”,并同步推出基于该架构的数据中心GPU产品。据官方介绍,Blackwell Ultra在计算效率、内存带宽和互联技术方面均有大幅提升,尤其针对大型语言模型训练和推理进行了优化。与上一代产品相比,其AI性能提升高达2.5倍,能效比也显著提高。英伟达CEO黄仁勋表示,Blackwell Ultra将成为未来数据中心和AI基础设施的核心,助力企业加速AI创新和部署。
Blackwell B200 GPU采用台积电3nm工艺,性能较上一代提升近一倍,旨在缓解数据中心日益增长的AI算力瓶颈。
英伟达于今日发布了其备受期待的新一代Blackwell架构GPU B200。该芯片采用台积电最新的3nm工艺制造,集成了超过2000亿个晶体管,AI推理性能较上一代H200提升高达90%。CEO黄仁勋表示,Blackwell架构专为万亿参数级别的大语言模型训练和推理而设计,将有效缓解当前数据中心面临的算力瓶颈。首批搭载B200的服务器预计将于2026年下半年出货,亚马逊AWS、微软Azure等云巨头已确认采购。
H200系列GPU在AI推理和训练方面展现出强大性能,或将引领新一轮算力竞争。
英伟达公司于今日正式发布了其下一代AI芯片H200系列,旨在满足日益增长的AI计算需求。据悉,H200系列在内存带宽和计算效率方面均有显著提升,尤其是在处理大语言模型和复杂AI任务时,其性能表现远超前代产品。此举预计将进一步巩固英伟达在AI芯片市场的领先地位,并推动AI技术在各行业的广泛应用。