新闻  |   论坛  |   博客  |   在线研讨会
李彦宏:百度AI构架有优势,性能较低的国产芯片仍可高效运作!
芯智讯 | 2024-03-11 22:46:53    阅读:174   发布文章

image.png

3月7日消息,据外媒报道,百度创始人、董事长兼CEO李彦宏在最近的财报电话会议中对外透露,虽然美国限制了英伟达(NVIDIA)和AMD等厂商的高性能AI芯片的对华出口,使得百度无法获得最先进的AI芯片,但百度公司强大的本土软件技术将确保用户体验不受影响。

百度过去主要使用英伟达的高性能GPU来对其自研的AI模型进行训练和执行推理任务。然而,美国在2022年10月首次出台针对AI芯片的出口限制政策,使得英伟达、AMD等厂商的高性能AI芯片的对华出口受限,虽然之后英伟达推出了符合规则可以继续向中国出口的A800、H800,但是在2023年10月,美国政府又更新了限制规则,不仅使得英伟达A800、H800受限,同时就连高性能的游戏显卡RTX 4090都受到了限制。这也使得国内的AI技术厂商受到了影响。

对此,在2023年11月的百度2023年第三季度业绩说明会上,李彦宏表示,美国对中国的芯片出口限制,在短期内对百度的影响有限,百度拥有大量的人工智能芯片储备,可以在未来1至2年内不断更新百度的AI大模型“文心一言”。

李彦宏强调:“文心大模型不太需要强大的芯片,我们的芯片储备以及其他替代品将足以支持终端用户的大量AI本地应用程序。从长远来看,难以获得最先进的芯片不可避免地会影响中国AI发展的步伐,百度正在积极寻找替代品,虽然这些选择不如美国的芯片先进。”

在最新的2023年第四季财报会议上,李彦宏进一步指出,美国的出口限制并未对百度造成重大影响,至少短期内不会受冲击。百度现有的英伟达GPU库存和目前的采购能力足以支撑现有的AI服务、AI原生应用,及为部份未来项目提供动力,包括对百度自研的文心一言的支持。

据介绍,百度AI技术架构分为四层:芯片层、框架层、模型层和应用层,每一层之间都有很多反馈,可以通过不断获得反馈,实现端到端优化。从高端芯片昆仑,到飞桨深度学习框架,再到文心预训练大模型,百度在各个层面都有关键自研技术,每一层之间都有很多反馈,通过不断获得反馈,实现端到端优化。这个技术架构,越往下越通用,越往上越专用。更通用,意味着不断降低行业使用技术的门槛;更专用,则是深入产业去深化应用。

李彦宏表示,虽然芯片层受到了限制,但是百度在应用层、模型层和框架层都有很大的创新空间,拥有独特的竞争优势。百度自主研发的四层AI构架和强大的研发团队,使公司能有效地进行模型训练和推理,即使是使用性能较低的国产芯片仍能维持高效率。

资料显示,虽然百度之前主要依赖于英伟达的AI芯片,但是百度也有自己的自研的XPU架构的AI芯片——昆仑芯,2021年7nm的昆仑2代芯片就已经量产,性能较上一代提升了2-3倍。目前昆仑芯片已经进入到了第三代,预计将会在今年上半年量产。

2023年1月,在第五届百度 Create AI开发者大会上,李彦宏就曾表示,“百度自研的昆仑AI芯片性能领先,因为它已经为百度的搜索服务优化了十年,能够获得最真实、最及时的反馈。”

另外,业内消息也显示,在2023年10月美国升级AI芯片出口限制政策之后,百度等国内AI大厂被迫加大了对于自研芯片及国产AI芯片的采用。即便是英伟达又计划推出新AI GPU,即HGXH20、L20 PCIe及L2 PCIe,但其算力仅H100的20%,性价比甚至不如一些国产AI芯片。

李彦宏还表示,百度拥有中国最具成本效益的AI基础设施,加上公司创新的AI构架,使其在激烈的市场竞争中处于有利地位。

值得注意的是,百度发布2023年第四季度及全年财报显示,2023年其总营收达1345.98亿元,归属百度的净利润(non-GAAP)287亿元,同比增速达39%;四季度营收349.51亿元,归属百度的净利润(non-GAAP)77.55亿元,同比大涨44%。2023年,百度全年营收和利润均超市场预期。

编辑:芯智讯-浪客剑


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客