O novo MacBook M5 Max com 128 GB de RAM pode agora executar facilmente o Llama 70B como um LLM local.
Executar essa IA há 1,5 anos teria exigido um cluster de GPU de 40k.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O novo MacBook M5 Max com 128 GB de RAM pode agora executar facilmente o Llama 70B como um LLM local.
Executar essa IA há 1,5 anos teria exigido um cluster de GPU de 40k.