CN/EN
2022 IDEA大会圆桌论坛|预训练模型的产业化
2022-12-09
分享:
张家兴、田奇、周明、林伟,探讨预训练模型产业化的火热现象

2022 IDEA大会上,IDEA研究院认知计算与自然语言研究中心讲席科学家张家兴、华为云人工智能领域首席科学家田奇、阿里巴巴机器学习PAI平台和大数据平台技术负责人林伟、澜舟科技创始人周明,以“预训练模型的产业化”为主题展开圆桌对话,从技术路线、产业实践、趋势发展等多个维度讨论近期非常火热的预训练模型产业化现象。

2022 IDEA大会「预训练模型的产业化」圆桌现场

2022年,正值深度学习崛起10周年。回首过往,人工智能在各行各业落地了无数个成功的SOTA模型,极大地推动了产业发展,而这10年,也让机器成功迈入可以拥有人类认知智能的阶段。

自2021年GPT-3入选《麻省理工科技评论》“全球十大突破性技术”后,大规模预训练模型开始爆发并呈现百家争鸣的盛况。当大家都在争先恐后地优化升级至数亿万级的参数时,一些轻量化可直接落地的小预训练模型却成为黑马突出重围。代表性事件就是2022年以DALL·E2 为首的大预训练模型突破了图片生成的精准度,颠覆了整个AIGC,而Stability.AI 开源的Stable Diffusion 却在2个月的时间里催生出了整个AIGC产业。

2022年IDEA大会上,IDEA研究院认知计算与自然语言研究中心讲席科学家张家兴邀请到华为云人工智能领域首席科学家田奇、阿里巴巴机器学习PAI平台和大数据平台技术负责人林伟以及澜舟科技创始人周明再次齐聚,在去年IDEA大会“大模型技术与落地”的话题基础之上,结合技术新变化、产业新形势,分享过去一年来各自新进展以及未来预训练模型落地产业化的新方向。


产业化落地,是让预训练模型更有价值的基础

过去一年,预训练模型从爆发到快速落地,其技术和产业价值发生了激烈的碰撞,模型不仅要越来越大,还要越来越有商业价值。

林伟表示,“开源社区为什么这么火,包括我们构建起Modelscope时看到有很多开发者在模型服务有创造力,我们看到一些预训练模型一旦开源出来,很多人就可以在各自的场景做各种各样的尝试。如果N个应用里有一个是具有商业化价值的,那就有很大价值。我们做工程的、做平台的,希望把这个过程变得非常容易上手,这是我们一直在推动的,AI工程化是需要普惠性的,使得AI各种各样的应用得到快速的试错或是成长。”

预训练模型的技术发展与产业加速落地碰撞,擦出了两个火花, “大模型领域目前有两个互补的赛道:一是大模型,二是轻量化模型”,周明提出“大模型的好处主要是研究多层神经网络抽象能力加强后对人脑的逼近能力,它作为科学探索是非常重要的。而轻量化模型更易于落地,鉴于大模型训练、部署相对代价比较大,尤其是对初创团队和它的客户来说压力较大,这是为什么要走轻量化的路子,因为容易快速落地。”

张家兴也表示,近期团队开源的中文第一个开源Stable Diffusion太乙模型在20天内的下载量已超出10万,足以能说明轻量化模型快速落地产业的优势,这也让他坚定了多且轻量的预训练模型发展路线。

田奇则认为,大模型的资源消耗很大,一直是它的痛点和难点,但也不是没有解决方法。“比如,我们采用一些知识迁移的技术,包括跨语言知识迁移和‘以小训大’的技术,可以让小语种大模型训练成本降低60%以上。与此同时,大模型给出的结果也是令人惊喜的。”


相辅相成的共赢新模式

当预训练模型开始轻量化发展,其模型的能力往往不如一个千亿级别的大模型全面,为每个能力单独做预训练模型成为了发展方向,而“多样化”也成为了轻量化模型的特点,这是两个不同的技术路线。

是大还是多?田奇认为两者之间并不矛盾甚至是相辅相成。“我们希望大模型是AI的底座, 在海量的通用数据训练的基础模型之上可以形成高质量行业模型,进而可以快速的抽取生成小模型,并形成工业化流水线进行最后的端侧部署,这样可以达到端云协同、按需使用、高效经济的目的。而一些小样本场景上,其数据又可以快速反哺到大模型,帮助模型越用越好,形成闭环,这也是大模型和端侧的小模型是相辅相成的。”

周明也给出更加落地的建议,“我们既要尊重并关注大模型的发展,也应该重视客户的需求,将大模型和用户的业务需求无缝衔接起来实现产业落地。大和多是因为各自所处的业务场景不同而进行的选择。大公司资源足、业务广,有更多的机会成本去探索并驱动大模型的前沿发展,而对于初创公司来说,紧贴业务快速响应并满足业务需求,是选择轻量化模型的主要原因,因为落地的代价最小。”

有意思的是,林伟提出了另外一个跳脱出产业的看法,通过仿真大脑来类比大模型和多而小的模型的关系。“大模型就像是每个人通用的学习路径去学习知识,而进入大学选专业深耕,如同多而小的模型一样,每个模型都具备某个专业的能力,不同模型之间可以进行组合决策,通过集成的方式,像人类智囊团一样,更加有智慧。所以我觉得大模型并不是只有一个,怎么样利用不同的专业,在专业上有一些分支,最后通过一个更加综合的方式来做到更好的智慧,可能是我们现在正在探索和演进的。”

林伟在2022 IDEA大会论坛上发言

“我有一个超越人类的小想法”

2017年,AlphaGo在围棋比赛上击败世界排名第一的人类棋手柯洁后名声大噪,也让大众意识到机器超越人类的可能性。随着后面几年的发展,尤其是预训练模型的爆发,“AI生产AI”的概念呼之欲出,成为了近一两年很多人关注的方向,甚至提出了AI 3.0时代。

在具体场景的模型生产上,机器有可能最终代替人类吗?

从AI技术的角度来看,张家兴认为人类一直如此痴迷科技的进步,本质上就是将人类从不该承担的生产力中解放出来,沿着AI的发展历程来看,其未来也会向智能生产、解放人类生产力的方向发展。“我们最近自研的GTS预训练模型自动生产引擎已经在FewCLUE榜单上拿到了第一,这也能侧面证明在一定程度上,在生产模型这件事情上,人类或许不如机器。”

而从经验积累的角度来看,田奇表示, “首先,大模型的设计需要极高的专业知识,模型训练需要非常好的实践经验,没有专业知识做不了。大模型训练的中断、调优、重启都需要很多实际经验,这是机器自动化做不了的。其次,在数据治理和知识挖掘中,也需要算法专家的参与。在数据挖掘时,如何保护用户的隐私,需要算法专家的参与。做自监督学习,如何设计自监督学习算法也需要专家。这都是机器无法直接替代的。”

田奇在2022 IDEA大会论坛上发言

从数据清理的角度来看,林伟认为,虽然自动化生产可以帮助优化调参,但数据的理解和清洗,是非常需要人的参与。“其实算法工程在理解数据和清洗数据处理投入了大量时间,甚至大大超于模型训练时间。所以自动化机器学习在数据清理这块的智能化还是有挑战的。”

从创造性以及产业落地的角度来看,周明认为机器无法提供更有创造性的方法,只能作为一个工具使用,而模型训练从整个研发的链路上看,又处于某一个小环节上,面对客户的多方面的需求,自动化生产预训练模型未必可以直接满足到客户。


用“有限”技术创造无限的未来

近期,预训练模型领域正在发生重大变化,AI从以前人脸识别、物体检测等重视理解的能力,逐渐走向了AIGC或者generating AI等重视内容生成的方向,包括图像、文本、3D视频语言。对于接下来的发展,三位嘉宾从技术和产业落地的两个维度上也给出了各自的展望。

“未来在AI生成上,除了多模态大模型以外,还要做好NLP预训练大模型,和NeRF等3D视觉预训练大模型。”田奇给出了自己对未来技术发展方向的判断。并指出AIGC未来发展需要持续关注并重视的四要素:一是可控性,内容的可控可编辑;二是可靠性,提高模型质量;三是数据的安全性,涉及伦理、数据侵权等;四是全面性,三位物体和三位场景的。

周明认为“文图生成应该和文文生成做一个结合,做到图文并茂。另外可以从文文生成中,借鉴其可控的生成思路,将可控的要素体现在文图生成中是很重要的一个问题。同时针对落地场景好好打磨模型,从中悟出一些可以抽象化的技术,将来再指导更多的研究或者推广到更多场景。”

张家兴表示,“作为中国最大的预训练模型开源体系,封神榜目前已开源的88个模型将全面支持AIGC的发展,未来也将持续为AIGC提供核心的模型生产能力,这里的想象空间非常广阔,可以不仅仅局限于文生图、视频等,对于元宇宙的发展也会是一个很好的促进作用,非常值得大家一起去探索。”

林伟则提出了一个更前瞻的展望, “未来模型结构上是否可以有像Stable Diffusion这样好的结构,让它生成出来的素材真的像人,或者想象空间确实能帮助人类去扩展自己的空间?”

TOP