CN/EN

认知计算与自然语言研究中心

认知计算与自然语言研究中心(Cognitive Computing and Natural Language, CCNL)致力于推动预训练大模型为代表的新一代认知与自然语言基础前沿技术的进一步发展,力图解决大模型技术商业化落地过程中的全部技术问题,构建对话机器人、知识抽取、知识体系等自然语言领域的新的技术架构,打造认知人工智能的新技术范式。

张家兴博士现任IDEA研究院认知计算与自然语言方向讲席科学家。北京大学博士毕业,曾先后担任微软亚洲研究院研究员、蚂蚁金服资深算法专家、360数科首席科学家。在人工智能、深度学习、分布式系统、物理等领域的顶级学术会议和期刊(NIPS, OSDI, CVPR, SIGMOD, NSDI, OOPSLA, ICSE等)上发表二十几篇学术论文,提交七十余项专利。在蚂蚁金服期间创建深度学习团队,引领深度学习首次在工业界场景落地,开创了蚂蚁金服智能客服、智能投顾、智能贷后、智能舆情等自然语言AI方向。在360数科阶段打造数据AI融合中台,成为金融科技基础框架。

机器的认知能力,就是让机器和人一样去听说读写、学习思考和理解世界。这是人工智能产业的基础,也是人工智能技术的制高点。具备了认知能力的机器,可以在很多场景代替人的脑力劳动,比如客服、顾问、营销、医疗诊断、教育、金融投资、看护陪伴等。在这些领域,机器可以解放人的劳动,或者提升人的工作效率,可以为社会注入大量的“认知劳动力”。同时,机器的认知能力意味着更深层次的语义理解能力,也能在根本上提升搜索、推荐、广告、大数据等技术领域技术水平,导致新一轮算法革命。最后,机器认知世界,意味着算法可以和人一样去理解这个世界,而且可能是更全面和深度的理解世界,这样的机器认知能力可能保住人们更好的调控经济和治理社会,从而创造一个更美好的人类未来。

研究成果

认知计算与自然语言研究中心当前正在研发基于预训练大模型的新一代自然语言认知平台,将大模型带来的机器认知能力赋能给整个自然语言技术生态,促进技术公平。

认知平台首先集成的是大模型训练能力,在平台底层,是一个完整的大模型训练流水线,源源不断的有大模型生产和更新,支撑平台的功能,以及大模型可以直接输出给生态伙伴。在这些大模型基础上,是针对分类、序列标注、句子关系、文本生成等各种NLP任务的任务学习引擎。用户只需提供很少样本(few-shot learning)即可从一个大模型中学到针对具体任务的产品级模型。这背后是各种fine-tuning、模型蒸馏、模型量化、模型结构剪枝与搜索等各种技术,以及他们跟NLP具体任务的深度优化和绑定。除了针对具体NLP任务的任务学习,认知平台也会提供基于大模型的深度学习框架(framework),让生态团队可以基于这个框架做进一步的模型开发。最后,认知平台也包括公有云API,私有化部署等多种模型部署方案,保证不同场景不同需求情况下的模型高效部署。

研究方向

  • 大模型认知平台

    基于预训练大模型,构建针对不同NLP任务的任务学习引擎,帮助用户用更少的训练成本获得更好效果的模型。

  • 对话机器人框架

    基于大模型代表的最新自然语言技术,整合语义理解引擎、知识体系、拟人语音技术等能力,打造新一代对话机器人框架,引爆对话机器人生态。

  • 知识提取引擎

    基于语义理解模型和庞大知识体系,让机器具备从句子和文章中提取信息的通用能力。目标是让机器更好的理解世界。

  • 知识大体系

    知识是认知最终需要突破的堡垒。需要一个系统化的思维,将知识构建成包括结构化知识(知识图谱)、知识获取、知识应用、知识验证等环节整合在一起的一个大体系,成为认知智能底层的基础设施。

TOP