看完了DeepSeek新出的論文,感覺內存價格還要漲啊,利好美光。



論文大概的意思就是讓LLM的長期記憶部分從模型裡面分離出來,放到內存裡面,從而解放了顯存空間,這種工程方法稱之為 n-gram

我要拿住我的DDR5內存了。今年再翻個兩倍沒問題。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言