Meta并不像谷歌、微软等科技巨头从事销售云计算服务的业务,过去公司从未公开谈论其内部数据中心芯片项目。
为了更好地支持人工智能项目,科技巨头竞相在企业内部研发AI芯片。Facebook母公司Meta在5月18日首次宣布了其AI自研芯片项目,并分享了数据中心项目的新细节。
Meta并不像谷歌、微软等科技巨头从事销售云计算服务的业务,过去公司从未公开谈论其内部数据中心芯片项目。但Meta高管称,全球科技界都对此表现出兴趣,所以有必要与外界沟通。
Meta当天股价上涨近2%。今年以来,该公司累计涨幅已经翻番。
在一篇博客文章中,Meta公司表示,它早在2020年就设计了第一代芯片,作为Meta训练和推理加速器(MTIA)计划的一部分,主要用于提升广告投放和其他内容推荐模型的效率。
据Meta介绍,首个MTIA芯片将专注于AI推理。Meta软件工程师Joel Coburn表示,Meta最初考虑将GPU用于推理任务,但后来发现GPU并不不太适合推理工作。
“GPU在真实模型应用方面的效率仍然很低,而且部署起来成本高昂。”Coburn表示,“这就是我们需要MTIA的原因。”
研究机构Gartner分析师盛陵海对第一财经记者表示:“英伟达的GPU也可以用于推理,但是效能不一定合适,因为推理需要的算力区别很大,很多时候会浪费算力,就好像重型卡车不适合做保姆车。还是要根据具体应用场景,匹配相应的算力。”
市场认为,AI芯片最终将支持更高级的元宇宙相关任务,例如虚拟现实和增强现实,以及新兴的生成式人工智能领域。
今年2月,Meta发布了新的大型语言模型LLaMA之后,扎克伯格宣布公司正在创建一个专注于生成式AI研发的顶级团队。
目前Meta使用由16000个英伟达A100 GPU组成的超级计算机来训练LLaMA语言模型。公司称,最大的LLaMA语言模型LLaMA 65B包含650亿个参数。相比之下,谷歌最新发布的大型语言模型PaLM 2包含了3400亿个参数。
Meta去年开启大规模裁员,并转而加大对AI技术基础设施的投资建设。不过,它没有就MTIA新型芯片的部署时间表发表评论。
Meta承认,MTIA芯片在处理高复杂度AI模型时仍然面临挑战,但在处理中低复杂度模型时,比竞争对手的芯片更有效。
“MTIA芯片的功耗仅为25瓦,远低于英伟达等厂商的芯片功耗,并使用RISC-V的开源芯片架构。”Meta在博客中表示,“性能的改进将证明投资是合理的。”
另据博客文章介绍,该芯片处理器采用台积电7纳米工艺制造。不过公司没有进一步透露相关的细节。
Meta还介绍了一种称作“可规模化视频处理器”(MSVP)的芯片,可用于处理视频并传输,同时降低能源需求。公司称,每天需要处理40亿个视频的任务。
【来源:第一财经】