两个模型,都从零训练。30B模型预训练用了约16万亿token,支持32000 token的上下文窗口,MoE架构下每次推理只激活约10亿参数,推理成本大幅压缩。105B模型支持128000 token的超长上下文,在AIME 25数学竞赛基准上得分88.3,使用工具后达到96.7;MMLU得分90.6;Math500得分98.6。
AI Error Likely Led to Girl’s School Bombing in Iran
,详情可参考新收录的资料
FT App on Android & iOS。业内人士推荐新收录的资料作为进阶阅读
值得注意的是,针对此前备受用户吐槽的「微信文件重复保存吃内存」问题,微信官方此次也借机作出了明确回应:,推荐阅读新收录的资料获取更多信息
User-friendly interface