明升手机版(中国)

 
作者:张双虎 李晨阳 来源:明升中国app报 发布时间:2023/3/6 8:58:26
选择字号:
新模型预计3月份底优化完成并逐步开放
“聪明的小孩”确实有“ChatGPT那味儿”

 

 

前不久,复旦大学计算机app技术学院邱锡鹏团队发布类ChatGPT模型MOSS的手机版迅速登上微博热搜。

2月20日,MOSS发布当天就收到大量内测申请、采访、投资、合作邀约——公众对这项原本局限于NLP(自然语言处理)学术圈的新技术热情高涨,这让邱锡鹏团队颇感意外。

“聪明的小孩”让人激动到失眠

大家最兴奋的一天,是春节前的腊月二十八。项目主开发者、计算机app技术学院博士研究生孙天祥在测试过程中输入一个中文问题,MOSS却以英文正确回答,“就像一个不会说但听得懂中文的人”。而当时版本的MOSS还很初级,中文语料占所有训练数据不到0.1%。

“很神奇,我们没有教过它机器翻译。”MOSS显示出的潜能让邱锡鹏当晚激动到失眠。

邱锡鹏把MOSS比作一个“聪明的小孩”,即便现在还不擅长写诗、解题或很多具体的事,但已展示出成为通用人工智能(AGI)大框架的潜能,“很多遥不可及的事情,它一点就通了。”

实际上,邱锡鹏也让6岁的女儿和MOSS聊天,发现孩子可以愉快地和MOSS对话很长时间。

MOSS受到关注的背后,是科研人员十年如一日的积淀。作为一名人工智能研究专家,邱锡鹏从读博期间就开始涉猎机器学习,留校工作后进入自然语言处理研究领域。他和团队在自然语言处理的基础模型和基础算法上形成了很多创新的研究成果。

邱锡鹏的《神经网络与深度学习》被广大读者称为“蒲公英书”,在许多“人工智能必看书单”中榜上有名。去年,他还带领团队获得明升中国中文信息学会“钱伟长中文信息处理app技术奖”一等奖。

这些天,邱锡鹏与他的MOSS团队——8位年轻的复旦学生——继续紧锣密鼓地开展内测和迭代工作。新模型预计在3月份底优化完成,后期再逐步对社会开放。

 

  ?

MOSS团队合影(左六为邱锡鹏)。戚心茹、寸菲/摄

确实有“ChatGPT那味儿”

目前已参与内测的一些用户表示,尽管MOSS在参数规模上和ChatGPT相比小一个量级,事实性问题覆盖不够全面,经常会“一本正经地胡说八道”,但确实有“ChatGPT那味儿”“基本功能都实现了”。

邱锡鹏很乐观,认为在不远的将来,MOSS这类大型语言模型会成为和搜索引擎一样常规的存在,为人们生活的方方面面提供助益。

开源(即开放源代码和模型参数)是邱锡鹏和复旦自然语言处理实验室的同仁们一直以来的学术坚持。

“这次也会将研究成果开放给公众与社会。”邱锡鹏说。

 深度对话MOSS团队

“我们想证明,在有限的资源下,也能做出类ChatGPT模型”

记者:请简单介绍一下MOSS?这种“大型对话式语言模型”和我们日常使用的Siri、小度、小爱等聊天机器人有什么区别?

邱锡鹏:打个比方,这两者的关系就像智能手机和功能手机。之前的聊天系统还属于弱人工智能,设计它们就是用来聊天的,就像传统的功能手机只能用来打电话;而现在的大型语言模型,像ChatGPT、MOSS,它们能做很多事,聊天只是功能之一。智能手机可以用来打电话,但它的功能远远不止于此。

就ChatGPT、MOSS而言,它们具备的是一种通用能力,可以帮助人类完成各种各样的事情,只不过以对话形式呈现。它可以完成自然语言处理领域的绝大部分任务,包括机器翻译、信息抽取、纠错等。它们还可以在学习使用外部工具后,与外部世界进行交互,进行创作。这些都是现有的聊天机器人所不具备的。应该说,这种对话式大型语言模型向我们展示了一条通向“通用人工智能”的崭新路径。

  ?

邱锡鹏。戚心茹、寸菲/摄

记者:创建MOSS模型花了多长时间?

邱锡鹏:我们在春节前就开发出第一代模型,它显示出了很大的潜能。与之前的聊天系统大不相同,有着不错的人类意图理解能力,也有很多涌现能力,比如未经训练就学会了机器翻译。之后,我们又花了一个多月的时间打磨它的工程部署情况,比如提高效率、优化界面等。

MOSS的开发离不开我们团队长期积累的研究经验。从2021年起,我们就开始做中文生成式预训练模型,也开源供别人下载,每月平均有上万次下载。后面我们又提出“语言模型即服务”的概念,认为基础语言模型会成为语言服务的基座。22年因为意识到大型语言模型会成为将来的基座,所以开始做大型语言模型方面的训练。后来又花费了半年时间,研究如何使大型语言模型理解人类指令以及具备对话能力。

记者:MOSS如何能够实现“端到端”走通大语言模型,克服了哪些难点?

邱锡鹏:“端到端”是一个学术概念,指的是从零开始,信息收集、数据处理、建立模型,到最终形成一个具有和人类对话能力的大模型,中间所有技术路径可以走通,这个就叫由起点到终点的“端到端”。因为OpenAI至今没有公布开发ChatGPT的技术路线和技术细节,所以我们需要靠有限的公开信息来自己摸索。

这个过程非常难,包含了非常多经验性、直觉性的设计,关键要打通两步:第一是基座,大型语言模型的基座不是简单的参数足够大就可以,还需要赋予大型语言模型各种各样的知识能力、学习能力,还有逻辑推理能力。第二就是要通过一些指令触发它的对话能力,让它理解人类意图,与人类能够交互对话。

到目前为止,我们还能把控技术路线,但未来可能会面临更大的困难,因为我们收集了非常多和人类交互的指令,要赋予它价值观和各种各样的能力,就要请一些专业人士来帮助我们设计,进一步增强MOSS各方面的能力。

记者:国内外已有不少公司正在研发类ChatGPT模型,投入不菲。作为一个高校学术研究团队,你们开发MOSS模型的初衷是什么?

邱锡鹏:我们开发MOSS模型,是想在百亿规模参数上探索和验证ChatGPT的技术路线,证明我们在技术实现上并不落后于国外。另外也是想证明,这种技术也并非一定被大公司垄断,我们这样一个学术研究的实验室,在相对有限的资源下,也能够做出类ChatGPT模型。

当然,我们开发MOSS模型,不止于追求和ChatGPT能力相近的模型。MOSS的定位是自然语言处理领域乃至是通用人工智能领域最前沿的探索。也许工业界更看重它的落地性能,而我们更看重它的下一代发展,即如何实现通用人工智能。从学术角度出发,只有我们比OpenAI看得更远、更超前,才可能最终实现超越。我们坚信,学术界在这个领域大有可为。

记者:MOSS与ChatGPT相比,有哪些主要差异?

邱锡鹏:最大差异还是参数规模。ChatGPT的参数量多达1750亿个,而MOSS的参数量比其小一个数量级,大约是前者的1/10左右。我们选择百亿规模这样级别的参数,是因为学术界主要是做一些探索性的技术,这个规模也在财力物力承受范围之内。我们认为在这个参数级别上,这些模型也能涌现出一定的智能能力,我们也能赋予它们对话的能力。实验结果证实了我们的猜想,MOSS模型可以非常顺利地与人类进行聊天互动。

另外一大差异就是迭代能力。用户量越大,交互数据越多,模型的迭代能力就越强。ChatGPT作为新一轮人工智能赛跑的领跑者,遥遥领先收集了大量用户的交互数据,OpenAI可以在此数据的基础上,把这个模型和数据的飞轮转起来。这也就是为什么,ChatGPT现在的写作能力比刚上线时提升了很多。

上述参数量和交互数据量的差异,进一步导致了MOSS和ChatGPT在事实类知识储备上的差距,表现为MOSS在回答事实类问题时更容易出错。一般来说,模型所要掌握的能力可以分为两种:一种是事实类,比如“上海在哪里”“上海有多少人口”;另一种是逻辑类,比如对人类意图的理解能力和对人类指令的理解能力。事实类知识遵从二八法则,80%都是长尾知识,不知道就是不知道,但不代表模型不会学习。我们很容易通过扩大知识库,扩大模型的学习语料和参数规模,让模型具有更多的知识。因此,我认为,大家在关注ChatGPT、MOSS这种模型的时候,更应该看重它的理解能力、学习能力以及思维能力,而不是看重它的事实类知识储备。如果从逻辑类能力来看,我觉得MOSS的表现其实还不错。

记者:MOSS的科技创新点在哪里?

邱锡鹏:MOSS的特点是小规模,比较容易适应个性化模型。从国内来看,大部分企业都有非常大的需求去接入AI服务,但如果直接把ChatGPT这么大的模型迁移过来,企业是用不起来的。MOSS这种百亿级规模就非常合适,可以企业内部私有部署,经过一些数据微调就可以转化为生产力。

所以我们觉得,在MOSS这个级别模型上,可以赋予更多专业化能力,比如接入外部知识库,增加搜索或特定领域工具的能力。就像人类一样,很多能力也不够,但我们可以使用工具来把我们的能力放大,比如记忆不够,可以通过查词典、使用搜索引擎。对MOSS也是一样。如果它本身的知识量不是那么大,我们就要想其他方法,让它更善于使用各种各样的工具,从而为各行各业赋能。这个可能是我们未来会和ChatGPT最主要的差异。

  ?

MOSS团队工作中。  戚心茹、寸菲/摄

“我很乐观,通用人工智能由科幻步入现实,应该不会很远”

记者:您认为明升中国版ChatGPT模型建设的必要性和价值在哪里?

邱锡鹏:首先,从大的方向来看,像ChatGPT模型,它并不向明升中国内地开放。明升中国要想站在大型语言模型或者将来的通用人工智能等技术的最前沿,就必须要建设自己的语言模型基座。其次,国外开发者不太可能以中文为主去发展他们的模型,他们的发展重点还是在英文上。那么,我们要想开发一个大型语言模型的基座,用于国内的信息处理,特别是中文信息处理,就必须建设一个中文能力非常强的大型语言模型。

记者:MOSS的优化会包括哪些方面?团队对MOSS模型的近期目标和最终期待分别是什么?

邱锡鹏:未来,MOSS的优化将会围绕三方面展开。第一,我们会准备更高质量的中文数据;第二,我们会开放接口,让MOSS与人类进行对话,收集更多的对话数据;第三,我们会进一步加大投入,扩大它的参数规模,如果MOSS的参数规模能够上升到500亿或者1000亿,它的能力就又会大幅提升。

近期的目标,是希望MOSS成为国内技术比较领先的对话式语言模型。我们希望能坚持做一个不为利润所驱使的研究机构,把研究成果无偿地分享给学术界,也在合法合规的前提下把研究成果开放给业界,让他们去做定制化或者在特殊领域的应用。下一步进行顺利的话,我们会于3月底左右开源。

长远来看,我们期待把MOSS作为一个通向通用人工智能的基座,让它变成一个像科幻片角色的真实存在。我很乐观,我觉得通用人工智能由科幻步入现实,应该不会很远,也许5到10年。那时,我们会像现在接受搜索引擎一样,接受通用人工智能。

 
版权声明:凡本网注明“来源:明升中国app报、明升手机版(明升中国)、app手机版杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、明升头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关手机版 相关论文

图片手机版
>>更多
 
一周手机版排行
 
编辑部推荐博文