全球最大规模AI巨量模型在京发布,未来进行开源共享
Inspur人工智能研究院28日在北京发布了全球最大的人工智能模型“元1.0”。Zhongxin.com记者了解到,“源”单体模型参数达到2457亿,超越美国OpenAI开发的GPT-3,成为全球最大的AI海量模型。同时举办了“源码1.0研讨会”。国内相关领域的院士和专家出席研讨会,就AI海量模型的创新与应用进行了深入的讨论和交流。source 1.0模型的参数规模为2457亿,用于训练的中文数据集为5,000 GB。与GPT3模型的1750亿参数和570GB训练数据集相比,source 1.0的参数规模领先40%,训练数据集领先近10倍。
Source 1.0能做什么?在语言智能方面,它在CLUE榜单中获得了零样本学习和小样本学习的总榜,是汉语理解评价的标杆。
在零样本学习榜单中,“元1.0”以18.3%的成绩超越行业最佳,在文献分类、新闻分类、商品分类、母语汉语推理、成语阅读理解填空、名词代词关系六大任务中获得冠军。他在文档分类、商品分类、文档摘要识别、名词-代词关系等四项任务中获得冠军。在成语阅读理解填空项目中,Source 1.0的表现已经超过了人类的分数。
在“元1.0”的“图灵测试”中,由元1.0模型生成的对话、小说续写、新闻、诗词、对联等与人类创作的同类作品混合在一起,被人群所区分。测试结果表明,人群在准确区分人与“元1.0”作品的差异方面的成功率不到50%。
海量模型的开发备受关注。人工智能领域的知名学者,如斯坦福大学的李菲菲教授,最近在论文中表示,这种海量模型的意义在于涌现性和同质性。“涌现”意味着庞大模型的隐性知识和演绎能够带来振奋人心的科学创新灵感。“同质化”意味着海量模型可以为很多应用任务的泛化支持提供统一、强大的算法支持。
“元1.0”中文海量模型的发布,使中国学术界和工业界能够使用通用的海量语言模型,大大降低了语言模型适应不同应用场景的难度。同时,可以提高模型在小样本学习和零样本学习场景下的泛化能力。
Inspur人工智能研究院表示,“元1.0”将面向学术研究单位和产业实践用户开源、开放、共享,将降低庞大模型的研究和应用门槛,有效推动AI产业化和产业AI的进步,切实为国家人工智能研究创新和产业发展贡献力量。
信息副总裁对表示,我们希望“元1.0”能够在能力建设方面发挥包容作用,赋能行业,开拓学术界研究,为行业做深度融合。“让大家都顺利使用,这样我们AI的进化水平才能越来越高,才能越来越快。”
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
猜你喜欢