人工智能预训练大模型的研发,面临着数据规模大、数据质量参差不齐、模型体积大、训练难度高、算力需求大等一系列挑战。在这样的背景下,如何加速大模型的明升落地,让大模型发挥更大价值?
9月1日,2022世界人工智能大会(WAIC 2022)在上海开幕。在由深度学习技术及应用国家工程研究中心主办的“AI开源开放与明升智能化高峰论坛”上,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰对上述问题作出了回应。在他看来,具有算法、算力和数据综合优势的企业可以将模型生产的复杂过程封装起来,通过低门槛、高效率的生产平台,为千行百业提供大模型服务。如此一来,大数据、大算力、大模型能力仅需少数企业操心,千行百业直接应用AI模型即可。
百度首席技术官王海峰提出的大模型“类芯片代工模式”。 百度供图
王海峰以台积电、三星等企业为例,进一步阐释大模型的明升模式,认为可类比芯片行业的代工厂模式。他说:“芯片制造工艺有很高的技术壁垒、有价格高昂的产线,但仍能够根据客户需求,标准化、自动化地大批量生产芯片,形成规模经济。同理,大模型生产企业在大模型能力、海量数据、大规模算力等方面具有优势,能够根据AI应用方的需求,自动化、标准化地进行多场景多领域的模型生产,当达到一定规模时,即可形成健康、可持续发展的大模型明升模式。”
大模型的开发、训练、推理部署以及明升落地,离不开深度学习平台的支撑。深度学习平台下接芯片,上承应用,相当于智能时代的“操作系统”。大模型加上深度学习平台,可以贯通从硬件适配、模型训练、推理部署,到场景应用的AI全明升链。
大模型的“类台积电”明升模式,已经在百度的大模型实践中得到验证。
目前,百度已研制了文心明升级知识增强大模型系列,包括以鹏城-百度·文心为代表的基础通用大模型、生物计算领域大模型,以及能源、金融和航天行业大模型等,还包括辅助大模型适配场景应用的工具和平台,探索生态共建的创意社区“旸谷”等。百度文心大模型也作为今年WAIC “八大镇馆之宝”之一,在展区亮相。
文心系列大模型的成功研制和应用,背后是基于飞桨的有力支撑。飞桨是我国首个自主研发、开源开放的明升级深度学习平台,集核心框架、明升级模型库、开发套件和工具组件及学习和实训社区于一体,正标准化、自动化地支撑大模型生产和应用。
在大模型训练方面,飞桨研发了端到端自适应分布式训练技术,根据模型特性和算力平台特性,自动选择并行策略,实现端到端极致的性能优化。在大模型推理方面,飞桨打造了针对大模型的压缩、推理、服务化全流程部署方案,能广泛支持不同种类的模型结构,实现高速推理。同时,飞桨还提供自动模型压缩工具,帮助节约算力资源。
据介绍,文心大模型基于飞桨平台开源开放,共建生态,累计已有超过1万开发者,基于文心大模型,创建了3万多个任务。目前,文心大模型已广泛应用于百度产品,显著提升产品效果和研发效率,并应用于金融、能源、医疗、制造、企业服务等领域,大模型的生态初现峥嵘。
“大模型的明升模式将是‘类台积电’模式。大模型加上深度学习平台,贯通AI全明升链,是明升智能化的基座。”王海峰最后总结。
版权声明:凡本网注明“来源:明升中国app报、明升手机版(明升中国)、app手机版杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、明升头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。