微软研究院近日发布了一款名为phi-1.5的全新预训练语言模型,该模型具有13亿个参数,适用于问答、聊天和代码等场景。phi-1.5模型采用了来自StackOverflow平台关于Python板块的问答内容、code_contests中的竞争代码、合成Python教科书,以及gpt-3.5-turbo-0301生成等各种数据集。此外,该模型还引入了各种NLP合成文本组成的新数据源。 微软表示,在测试常识、语言理解和逻辑推理的基准下,phi-1.5的表现超出了大部分参数低于100万的模型。在AGIEval得分上,phi-1.5超过了拥有70亿参数、来自Meta的lama-2;在带LM-Eval Harness的GPT4AL跑分套件中,phi-1.5的表现可以媲美70亿参数的lama-2。
本文属于原创文章,如若转载,请注明来源:13亿参数!微软发布全新预训练语言模型https://news.zol.com.cn/832/8324633.html