
(本文翻译自微软全球官方博客)
在今年的 Microsoft Build 大会上,我们推出了 Phi-3系列的小型语言模型(SLM),这是 Azure AI 模型目录中的一项革命性进展。Phi-3模型包括 Phi-3-mini、Phi-3-small 和 Phi-3-medium,标志着生成式 AI 技术领域的重大进展,旨在提供紧凑高效的同时实现大模型的性能。

Phi-3系列模型以其卓越的性能脱颖而出,不仅能够提供大模型的能力,而且所需的计算资源更少。这使得 Phi-3模型非常适合广泛的应用,从提升移动应用功能到为对能耗要求严格的设备提供支持。这些模型支持长达128K 标记的上下文长度,突破了小型模型的能力极限。

通过按使用量付费(PAYGO)的无服务器API,体验 Azure AI 模型目录中的 Phi-3小语言模型的高效和灵活。PAYGO 允许您只为实际使用的部分付费,非常适合在不影响性能的情况下管理成本。为了确保稳定的吞吐量和最低的延迟,Phi-3模型提供了具有竞争力的定价,带来清晰且可预测的成本结构。
这些模型在美国东部2区和瑞典中部区提供。
模型 | 上下文长度 | 输入 (Per 1,000 tokens) | 输出 (Per 1,000 tokens) |
Phi-3-mini-4k-instruct | 4K | 0.00028 | 0.00084 |
Phi-3-mini-128k-instruct | 128K | 0.0003 | 0.0009 |
Phi-3-small-8K-instruct | 8K | 0.00032 | 0.00096 |
Phi-3-small-128K-instruct | 128K | 0.00035 | 0.00105 |
Phi-3-medium-4k-instruct | 4K | 0.00045 | 0.00135 |
Phi-3-medium-128k-instruct | 128K | 0.0005 | 0.0015 |
请持续关注 Phi-3的最新动态,鼓励您借助 Phi-3小语言模型的高效、多功能和强大性能来升级您的应用程序。欲了解更多详情,请访问我们的产品页面或联系销售团队,了解 Phi-3如何融入您的技术架构。
🔗 https://azure.microsoft.com/en-us/products/phi-3






