“相比一年前,文心大模型的算法训练效率提升到了原来的5.1倍,周均训练有效率达到98.8%,推理性能提升了105倍,推理的成本降到了原来的1%。”李彦宏称。
李彦宏进一步解释,也就是说,客户原来一天调用1万次,同样成本现在可以调用100万次。有些群体可能不会因为成本下降99%而兴奋。但是企业也好,开发者也好,一旦用起来,最关注的就是效果和成本。
李彦宏还分享了百度基于大模型开发AI原生应用的具体思路,指出MoE、小模型和智能体是值得关注的三个方向,“这是我们根据过去一年的实践,踩了无数的坑,交了高昂的学费换来的。”
李彦宏强调,通过文心4.0降维裁剪出来的更小尺寸模型,要比直接拿开源调出来的模型,同等尺寸下效果明显更好,同等效果下,成本明显更低,“大家以前用开源觉得开源便宜,其实在大模型场景下,开源是最贵的。所以开源模型会越来越落后。”