CN/EN

认知计算与自然语言研究中心

招贤纳士 

认知计算与自然语言研究中心(Cognitive Computing and Natural Language, CCNL)致力于推动预训练大模型为代表的新一代认知与自然语言基础前沿技术的进一步发展,力图解决大模型技术商业化落地过程中的全部技术问题,构建对话机器人、知识抽取、知识体系等自然语言领域的新的技术架构,打造认知人工智能的新技术范式。

张家兴博士现任认知计算与自然语言研究中心讲席科学家。北京大学取得博士学位,曾先后担任微软亚洲研究院研究员、蚂蚁金服资深算法专家、360数科首席科学家。张家兴博士在自然语言处理、深度学习、分布式系统、物理等领域的顶级学术会议和期刊(NIPS, OSDI, CVPR, SIGMOD, NSDI, AAAI, WWW等)上发表20余篇学术论文,提交70余项专利。他在蚂蚁金服期间创建深度学习团队,引领深度学习首次在工业界场景落地,开创了蚂蚁金服智能客服、智能投顾、智能贷后、智能舆情等自然语言AI方向,并且在360数科阶段打造数据AI融合中台,该应用成为了金融科技基础框架。

机器的认知能力,就是让机器和人一样去听说读写、学习思考和理解世界,这是人工智能产业的基础,也是人工智能技术的制高点。具备了认知能力的机器,可以在很多场景代替人的脑力劳动,比如客服、顾问、营销、医疗诊断、教育、金融投资、看护陪伴等。在这些领域,机器可以解放人的劳动,或者提升人的工作效率,可以为社会注入大量的 “ 认知劳动力 ” 。同时,机器的认知能力意味着更深层次的语义理解能力,也能在根本上提升搜索、推荐、广告、大数据等技术领域技术水平,引领新一轮算法革命。最后,机器认知世界,意味着算法可以和人一样理解世界,而且可能是更全面和深入地理解世界,这样的机器认知能力可以保证人们更好地调控经济和治理社会,从而创造更美好的人类未来。


研究成果

封神榜大模型 

认知计算与自然语言研究中心当前正在研发基于预训练大模型的新一代自然语言认知平台,将大模型带来的机器认知能力赋能给整个自然语言技术生态,促进技术公平。

认知平台首先集成的是大模型训练能力,在平台底层,是一个完整的大模型训练流水线,源源不断地有大模型生产和更新,支撑平台的功能,并且大模型可以直接输出给生态伙伴。在这些大模型基础上,是针对分类、序列标注、句子关系、文本生成等各种NLP任务的学习引擎。用户只需提供很少样本(few-shot learning)即可从一个大模型中学到针对具体任务的产品级模型。这背后是各种fine-tuning、模型蒸馏、模型量化、模型结构剪枝与搜索等各种技术,以及他们跟NLP具体任务的深度优化和绑定。除了针对具体NLP任务的任务学习,认知平台也会提供基于大模型的深度学习框架(framework),让生态伙伴可以基于这个框架做进一步的模型开发。

研究方向

认知机器学习平台
基于预训练大模型,构建针对不同NLP任务的任务学习引擎,帮助用户用更少的训练成本获得更好效果的模型。
对话机器人框架
基于大模型代表的最新自然语言技术,整合语义理解引擎、知识体系、拟人语音技术等能力,打造新一代对话机器人框架,引爆对话机器人生态。
知识提取引擎
基于语义理解模型和庞大知识体系,让机器具备从句子和文章中提取信息的通用能力。目标是让机器更好的理解世界。
知识大体系
知识是认知最终需要突破的堡垒,通过系统化的设计,将知识构建成包括结构化知识(知识图谱)、知识获取、知识应用、知识验证等环节整合在一起成为一个大体系,作为认知智能底层的基础设施。

TOP