微软 Phi-3-vision 基准测试:和 Claude 3-haiku、Gemini 1.0 Pro 相当
IT之家 5 月 28 日消息,微软在 Build 2024 大会上发布了 Phi-3 家族的最新成员--Phi-3-vision,主打“视觉能力”,能够理解图文内容,同时据称可以在移动平台上流畅高效运行。
Phi-3-vision 是一款多模态小型语言模型(SLM),主要用于本地 AI 场景,该模型参数量为 42 亿,上下文长度为 128k token,能够为常规视觉推理任务和其他任务提供支持。
那么 Phi-3-vision 有多厉害?微软今天发布了新的论文 [PDF],表示该 SLM 和 Claude 3-haiku、Gemini 1.0 Pro 等其他模型不相上下。
微软在论文中对比了 ScienceQA、MathVista 和 ChartQA 等模型,Phi-3-vision 的参数虽然不多,但性能非常优秀。
IT之家此前报道,微软提供了 Phi-3-vision 相较于字节跳动 Llama3-Llava-Next(8B)、微软研究院和威斯康星大学、哥伦比亚大学合作的 LlaVA-1.6(7B)、阿里巴巴通义千问 QWEN-VL-Chat 模型等竞品模型的比较图表,其中显示 Phi-3-vision 模型在多个项目上表现优异。
目前微软已经将该模型上传至 Hugging Face,感兴趣的小伙伴们可以访问项目地址:点此进入。
相关阅读:
《英特尔力押 SLM 小语言 AI 模型,宣布旗下软硬件已适配微软 Phi-3》
《参数量 42 亿,微软公布 SLM 小语言 AI 模型最新成员 Phi-3-vision》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。