微软于 2026 年 4 月推出轻量化图像生成模型**MAI-Image-2-Efficient**。该模型在保持生产级质量的同时,成本较前代降低约 41%,运行速度提升 22%,GPU 吞吐量提高 4 倍,且在延迟测试中领先谷歌竞品 40%。
微软采取“双模型”策略:高效版面向高并发、低成本场景(如营销素材),旗舰版 MAI-Image-2 则专注高精度需求。新模型已上线 Microsoft
## 正文
通讯简报
微软推出 MAI-Image-2-Efficient:一款更经济、更高效的 AI 图像生成模型 作者:Michael Nuñez 时间:2026 年 4 月 14 日,太平洋时间上午 9:00 图片来源:VentureBeat 使用 Midjourney 制作
今天,微软正式推出了 MAI-Image-2-Efficient,这是其旗舰级文本到图像(text-to-image)模型的轻量化变体。该模型在保持接近生产级质量的同时,成本降低近一半。此次发布即刻上线,用户可通过 Microsoft Foundry 和 MAI Playground 直接使用,无需等待排队。这标志着微软内部超人工智能团队迄今为止响应速度最快的产品迭代,也清晰传递出一个信号:雷德蒙德(Redmond)正致力于构建一套不依赖 OpenAI 的自主可控 AI 技术栈。
新模型的定价为每百万个文本输入 token 5 美元,每百万个图像输出 token 19.50 美元,相比前代模型 MAI-Image-2 的同等级别价格(分别为 5 美元和 33 美元),降幅约为 41%。微软表示,该模型运行速度比旗舰版本快 22%,在 NVIDIA H100 硬件上以 1024×1024 分辨率测试时,单 GPU 吞吐量效率提升达 4 倍。此外,微软声称其在 p50 延迟基准测试中,平均性能优于主要竞争对手的云服务商模型——具体点名包括谷歌的 Gemini 3.1 Flash、Gemini 3.1 Flash Image 以及 Gemini 3 Pro Image,领先幅度达 40%。
微软还宣布,该模型将逐步部署至 Copilot 和 Bing 平台,并计划在未来扩展至更多产品场景。
来源:venturebeat.com
