2月20日,印度AI实验室Sarvam在印度人工智能影响力峰会上发布了两款新一代MoE架构大语言模型。这两款模型将通过HuggingFace平台以开源权重的形式提供,同时将推出API访问和仪表盘支持。
Sarvam发布的两款新模型中,较小型号为30B-A1B设计,预训练数据集规模达16T,支持32K上下文窗口,主要面向低延迟的实时应用场景。规模较大的型号为105B-A9B设计,支持128K上下文窗口,适用于要求更为严苛的用例。Sarvam表示,其105B-A9B模型在本地化的印度语言基准测试中优于谷歌Gemini2.5Flash等竞争对手。在更广泛的工作负载中,其模型在大多数基准测试中优于DeepSeekR1,在许多基准测试中优于谷歌GeminiFlash。


来源:一电快讯
返回第一电动网首页 >
以上内容由AI创作,如有问题请联系admin#d1ev.com(#替换成@)沟通,AI创作内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网或AI创作,如有侵权请联系邮件删除。