IT之家 7 月 26 日消息,微软公司昨日(7 月 25 日)发布博文,宣布在 Azure 上支持开发者微调(fine-tune) Phi-3-mini 和 Phi-3-medium AI 模型,针对不同用例提高模型的性能。
例如,开发者可以微调 Phi-3-medium 模型,用于辅导学生;或者可以根据特定的语气或响应风格构建聊天应用程序。
Phi-3-mini 模型于今年 4 月发布,共有 38 亿参数,上下文长度有 4K 和 128K 两个版本;Phi-3-medium 模型共有 140 亿参数,上下文长度同样有 4K 和 128K 两个版本。
Phi-3-mini 模型在 6 月更新之后,跑分性能进一步提升,IT之家附上性能对比如下:
跑分 | Phi-3-mini-4k | Phi-3-mini-128k | ||
4 月版本 | 6 月更新 | 4 月版本 | 6 月更新 | |
Instruction Extra Hard | 5.7 | 6.0 | 5.7 | 5.9 |
Instruction Hard | 4.9 | 5.1 | 5 | 5.2 |
JSON Structure Output | 11.5 | 52.3 | 1.9 | 60.1 |
XML Structure Output | 14.4 | 49.8 | 47.8 | 52.9 |
GPQA | 23.7 | 30.6 | 25.9 | 29.7 |
MMLU | 68.8 | 70.9 | 68.1 | 69.7 |
平均 | 21.7 | 35.8 | 25.7 | 37.6 |
微软公司今天还宣布正式上线 Models-as-a-Service(serverless endpoint)服务,开发者无需担心底层基础设施,可以通过 serverless endpoint 方式构建 Phi-3-small 模型,快速开发人工智能应用程序,后续将扩充推出 Phi-3-vision 模型。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。