Liquid AI 发布 LFM2-8B-A1B:8B 参数仅激活 1.5B
高效moe架构重塑边缘计算边界——liquid ai推出全新lfm2-8b-a1b模型,作为lfm2系列首款混合专家(mixture-of-experts, moe)架构模型,其总参数量达8.3b,但每token仅激活约1.5b参数。得益于稀疏激活机制,该模型在维持强大表达能力的同时显著降低计算开销,特别适用于手机、平板等资源受限的终端设备。与传统依赖云端部署的moe模型不同,lfm2-8b-a1b专为实时交互场景优化,突破了“小规模moe效率低下”的行业固有认知。

该模型基于LFM2混合骨干结构构建,包含18个门控短卷积块和6个分组查询注意力(GQA)模块。除前两层保持稠密以保障训练稳定性外,其余各层均集成稀疏MoE前馈网络。每一层配置32个专家,实际运行时仅激活top-4专家,并通过归一化sigmoid路由器结合自适应偏置策略,实现更均衡的专家负载分配。支持长达32K token的上下文输入,具备英文、阿拉伯文、中文、法文、德文、日文、韩文及西班牙文等多语言处理能力。

训练与性能:12T token训练铸就媲美3-4B模型的能力
LFM2-8B-A1B历经约12万亿token的预训练过程,数据分布涵盖55%英文、25%多语言文本以及20%代码内容。后续采用Liquid Preference Alignment技术(融合长度归一化的DPO与APO-Zero方法)进行对齐训练,借助混合BF16/FP8精度方案,使整体训练效率提升超3倍。
在多项基准测试中表现亮眼:
- 知识理解与指令遵循:MMLU-Pro得分37.4(相较LFM2-2.6B提升11.5),IFEval达77.6,Multi-IF为58.2。
- 数学推理能力:GSM8K成绩84.4,GSMPlus为64.8,MATH500高达74.2。
- 多语言任务表现:MGSM达到72.4,MMMLU得分为55.3。
- 编程与写作生成:HumanEval+得分69.5,LiveCodeBench v6为21.0,EQ-Bench为44.2。
综合来看,其输出质量可对标3-4B级别的稠密模型,在多轮对话连贯性、创意文本生成、RAG检索增强回答以及工具调用等复杂任务中展现出卓越能力。
部署与集成:最高5倍加速,全面兼容主流框架
LFM2-8B-A1B在CPU与GPU上的推理速度表现突出。在搭载AMD Ryzen AI 9 HX 370和三星Galaxy S24 Ultra等设备上,采用int4量化配合int8动态激活,并运行定制化XNNPACK MoE内核时,解码吞吐量相较Qwen3-1.7B、IBM Granite 4.0等同类模型最高提升达5倍。
GPU端已集成vLLM推理引擎,支持FlashInfer与CUDA graph编译优化,兼顾单请求低延迟与高并发在线批处理需求。
针对移动端与轻量级设备,模型提供多种量化版本:Q4_0格式仅需约4.7GB存储空间,F16版本约为16.7GB。目前支持llama.cpp(需b6709及以上版本并启用lfm2moe支持)、ExecuTorch(适用于移动及嵌入式CPU)和vLLM(GPU平台)三大主流框架。此外,Hugging Face已开放GGUF量化文件下载,并配套提供Colab微调笔记本,助力开发者快速部署与二次开发。该模型现已上线Liquid Playground平台,供用户在线体验与测试。
<< 上一篇
网友留言(0 条)