1月6日|科大讯飞在互动平台表示,科大讯飞过去几年在受限的有限算力资源条件下,关于星火大模型训练和推理成本效率的持续优化做了大量投入,和直接使用英伟达卡上开展的各种工程优化不同,科大讯飞选择了更难的全国产算力路线。从2023年5月起,科大讯飞就联合华为先后攻克了万卡高速互联组网、计算通信隐藏、训练推理强交互、高吞吐推理优化以及国产算子优化等一系列难题,将通用大模型、类o1的深度推理模型等的训练效率对标A100均从最初的30%-50%优化达到了85%-95%以上;2025年以来,科大讯飞再次攻克国产算力训练的两座大山,一是攻克长思维链强化学习训练效率,深度推理训练效率从对标A800的30%提升至84%以上,二是攻克MoE模型全链路训练效率,MoE模型的训练效率从今年3月对标A800的30%提高到93%,实现国产算力平台上在该领域从0到1的重大突破。随着国产算力在底层能力上进一步提升,讯飞星火的训练成本还有较大的下降空间。
新闻来源 (不包括新闻图片): 格隆汇