科技日报北京6月1日电 (记者华凌)6月1日,北京智源人工智能研究院在2021北京智源大会上发布超大规模智能模型“悟道2.0”。据悉,其参数规模达1.75万亿,是AI模型GPT-3的10倍,打破之前由Google Switch Transformer预训练模型创造的1.6万亿参数记录,是目前中国首个、全球最大的万亿级模型。
智源研究院理事长张宏江表示,目前,“大模型+大算力”是迈向通用人工智能的一条可行路径。大模型对于人工智能发展具有重大意义,未来将基于大模型形成类似电网的变革性AI产业基础设施。AI大模型相当于“发电厂”,将数据,也就是“燃料”,转换为智能能力,驱动各种AI应用。如果将大模型和所有的AI应用相连接,为用户提供统一的智能能力,全社会将形成一个智能能力生产和使用的网络,即“智网”。大模型就是下一个AI的基础平台,是未来AI发展的战略基础设施。
智源研究院学术副院长唐杰教授介绍说,“悟道”超大模型智能模型旨在打造数据和知识双轮驱动的认知智能,让机器能够像人一样思考,实现超越图灵测试的机器认知能力。“悟道”团队在大规模预训练模型研发上做了很多基础性工作,形成自主的超大规模智能模型技术创新体系,拥有从预训练理论技术到预训练工具,再到预训练模型构建和最终模型测评的完整链条,从技术上是完整成熟的。“悟道2.0”实现了“大而聪明”,具备大规模、高精度、高效率的特点。
据了解,“悟道”团队研发的FastMoE技术,是打破国外技术瓶颈,实现“万亿模型”基石的关键。其研究并开源的FastMoE是首个支持PyTorch框架的MoE系统,具有简单易用、灵活、高性能等特点,并且支持大规模并行训练。而且,其还支持Switch、GShard等复杂均衡策略以及不同模型。