NVIDIATeslaM40GPU加速器是世界上最快的深度学习训练加速器
导读 据路透社看到的一份内部文件显示,Facebook的母公司MetaPlatforms计划今年在其数据中心部署自己定制设计的人工智能芯片,代号为Artemis。此...
据路透社看到的一份内部文件显示,Facebook的母公司MetaPlatforms计划今年在其数据中心部署自己定制设计的人工智能芯片,代号为Artemis。此举可能会减少Meta对Nvidia市场主导的H100芯片的依赖,并控制运行人工智能工作负载不断上升的成本。
Meta一直在投资数十亿美元来提高耗电的生成式人工智能产品的计算能力,并将这些产品集成到Facebook、Instagram和WhatsApp等服务中。这涉及获取专用芯片并重新配置数据中心以适应它们。
硅研究小组SemiAnalysis的创始人迪伦·帕特尔(DylanPatel)表示,成功部署Meta自家芯片可能会为公司节省数亿美元的年度能源成本和数十亿美元的芯片采购成本。
NVIDIATeslaM40GPU加速器是世界上最快的深度学习训练加速器。它提供准确的语音识别、对视频和自然语言内容的深入理解以及更好地检测医学图像中的异常。
尽管迈出了自力更生的步伐,但在可预见的未来,Meta将继续在其数据中心使用Nvidia的H100GPU。首席执行官马克·扎克伯格表示,到今年年底,公司计划有大约35万个H100处理器投入使用。
TECHRADAR的最新视频
继2022年决定停止芯片的第一次迭代并转而使用Nvidia的GPU后,自有芯片的部署标志着Meta内部项目的积极转变。
新芯片Artemis与其前身一样,是为人工智能推理而设计的,涉及使用算法进行排名判断并对用户提示生成响应。
Meta发言人表示:“我们认为,我们内部开发的加速器与商用GPU具有高度互补性,可以在Meta特定工作负载上提供性能和效率的最佳组合。”
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。