-
0.5B 以小搏大拿下端侧模型新 SOTA:4090 可跑,长文本处理 5 倍常规加速丨清华&面壁开源
清华大学与面壁智能联合开源了 MiniCPM 4 系列模型(8B 和 0.5B),以仅约同级别开源模型 22% 的训练开销,在多项基准测试中取得同级别最优性能,部分甚至超越参数量更大的模型。文章详细阐述了其背后的四大技术创新:**高效稀疏注意力 InfLLM v2**,用于解决传统自注意力机制在长文本处理中计算和存储开销过高的问题;**端侧推理优化框架 CPM.cu 与跨平台部署系统 ArkInf…- 0
- 0
长文本加速
❯
个人中心
购物车
优惠劵
今日签到
有新私信
私信列表
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
✈优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!


