首先,这个 phi-1 模型基于 Transformer 架构,拥有 13 亿个参数,比 Codex 的 120 亿个参数少了很多。微软研究人员只用了四天时间,就使用了 8 个 A100 芯片来训练 phi-1。他们用网络中的 60 亿个 token 和 GPT-3.5 生成的 10 亿个 token 来进行了训练。
在性能方面,phi-1 的 pass@1 准确率在 HumanEval 基准测试中达到了 50.6%,比 Hugging Face 和 ServiceNow 的 StarCoder(33.6%)、OpenAI 的 GPT-3.5(47%)和谷歌的 PaLM2-S(37.6%)表现更好。在 MBPP pass@1 测试中,phi-1 的表现更好,获得了 55.5% 的分数。
微软研究人员认为,高质量的数据是 phi-1 表现出色的关键。为了说明这一点,他们将这个模型的论文命名为“教科书就是你所需要的”。他们认为,像一本全面、精心制作的教科书一样。高质量数据可以为模型提供掌握新知识所需的有效信息。
通过制作“教科书质量”的数据,即数据的质量和完整性要高。并且覆盖面广,phi-1 模型在代码生成任务中表现出了很高的熟练程度。尽管模型和数据集大小都缩小了很多,但在编码基准测试中,该模型仍超越了几乎所有开源模型。
需要注意的是,phi-1 仅能够限定于 Python 编码,这是模型的局限性之一。此外,该模型还缺乏大型模型的特定领域知识,例如使用特定的 API 进行编程。
综上所述,微软的 phi-1 模型是一款性能优异的轻量级代码生成模型。它通过高质量的数据训练出了非常熟练的编程能力,表现比许多其他可用的编码模型都好。我们期待看到更多类似的技术和创新,推动人工智能发展的进程。
研究人员正在努力提高数据集的多样性和非重复性。他们认为,必须在数据生成过程中注入随机性和创造力,以确保示例的质量和连贯性。这是因为,如果数据集中的信息过于重复或单调,研究结果将受到很大影响。所以研究人员正在致力于开发出更多样化的数据集,以确保研究结果更准确。
微软资讯推荐
win10系统推荐
系统教程推荐
Copyright © 2012-2024 win10系统家园 版权声明