腾讯这波操作太秀了,1. 8B参数的翻译模型居然能干到接近32B的水平,还支持2bit和1.


25bit两种轻量化版本。 手机上跑毫无压力,这波直接把大模型体验拉到平价区了。
看来模型大小不是唯一标准,小模型也能有大能量,以后手机端AI应用要起飞了。 腾讯这招打得很精准,既控制了成本又保证了效果,大模型竞赛开始转向精简路线了。
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论