A solução LLM da QVAC Fabric continuará a ser iterada nos próximos meses — o objetivo é permitir que grandes modelos possam executar inferência local em qualquer GPU, qualquer sistema operativo e qualquer dispositivo terminal, alcançando assim uma implementação verdadeiramente escalável.
A sua investigação mais recente registou um avanço inovador: pela primeira vez, conseguiram realizar o ajuste fino de modelos com sucesso numa GPU móvel. O que isto significa? Antes, o treino de modelos de IA dependia necessariamente da capacidade de computação na cloud, mas agora dispositivos como telemóveis e tablets também podem participar. Para redes de IA descentralizadas, isto pode ser um ponto de viragem — a capacidade de computação deixa de estar monopolizada pelos centros de dados e cada dispositivo pode tornar-se um nó da rede.
O potencial da computação de edge aliada à IA on-chain acaba de aumentar consideravelmente.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
17 Curtidas
Recompensa
17
5
Repostar
Compartilhar
Comentário
0/400
MEVSandwich
· 13h atrás
Isto sim é que é verdadeira descentralização, até um telemóvel consegue executar afinação de modelos? Se for assim, os mineiros que se cuidem.
A democratização do poder de computação soa bem, mas será que vai mesmo concretizar-se...
Tenho fé na computação de edge, mas depende da real velocidade de iteração do QVAC.
Telemóveis a participar no treino? Isto vai explodir, os fabricantes de dispositivos devem estar a entrar em pânico.
Só espero que no fim não sejam novamente as grandes empresas a ficarem com a "carne" e nós só ficarmos com o "caldo".
Ver originalResponder0
MemecoinTrader
· 12-06 14:57
Não vou mentir, este é exatamente o ponto de viragem narrativa que estávamos à espera. Afinação de GPU móvel? Isto não é apenas progresso tecnológico, é o acelerador de velocidade memética de que o mercado precisava para justificar a próxima subida.
Vejam como a cascata de sentimento vai mudar assim que o retalho apanhar a ideia de "o teu telemóvel agora é um nó"... a janela de arbitragem social desta história é *perfeita*.
Ver originalResponder0
GweiWatcher
· 12-06 14:57
Se o ajuste fino de GPU em dispositivos móveis realmente se concretizar, sinto que o panorama vai mudar drasticamente.
---
Mais um “ponto de viragem”, será que vai mesmo quebrar o monopólio ou é só mais um sonho de apresentação em PowerPoint?
---
Todos os telemóveis vão virar mineradores? Esta lógica soa um pouco rebuscada.
---
Espera aí, nesse caso o consumo de tokens não vai explodir?... As baterias dos telemóveis vão sentir a pressão.
---
Finalmente alguém está a avançar com isto, já devia ter sido descentralizado há muito.
---
Se a compatibilidade de hardware não for bem gerida, ainda vamos continuar dependentes das grandes empresas.
---
AI on-chain + computação de edge tem realmente potencial, mas e a implementação prática?
---
Ajustar modelos no telemóvel... então todo o dinheiro que gastei nos serviços cloud foi em vão...
---
Se realmente der para correr em qualquer dispositivo, os fabricantes de chips GPU vão passar um mau bocado.
Ver originalResponder0
SelfRugger
· 12-06 14:42
Epá, ajuste fino de modelos no telemóvel? Se isto realmente for implementado, a indústria das mineradoras vai sofrer uma grande reviravolta.
Ver originalResponder0
fork_in_the_road
· 12-06 14:29
Ajuste fino de GPU em dispositivos móveis? Agora é que os telemóveis vão mesmo dar a volta, hein? Mas falando a sério, será que conseguem mesmo aguentar isso?
Democratização do poder de computação soa bem, mas quero mesmo é ver resultados práticos, será que conseguem avançar além dos conceitos?
Já ouvi falar demasiadas vezes em IA descentralizada, só acredito que a QVAC vai mesmo concretizar isto quando vir para crer.
Cada dispositivo como um nó — duvido que os utilizadores alinhem, ainda por cima a pagar a conta da luz, achas?
Se isto realmente acontecer, os fabricantes de GPUs vão chorar baba e ranho.
A solução LLM da QVAC Fabric continuará a ser iterada nos próximos meses — o objetivo é permitir que grandes modelos possam executar inferência local em qualquer GPU, qualquer sistema operativo e qualquer dispositivo terminal, alcançando assim uma implementação verdadeiramente escalável.
A sua investigação mais recente registou um avanço inovador: pela primeira vez, conseguiram realizar o ajuste fino de modelos com sucesso numa GPU móvel. O que isto significa? Antes, o treino de modelos de IA dependia necessariamente da capacidade de computação na cloud, mas agora dispositivos como telemóveis e tablets também podem participar. Para redes de IA descentralizadas, isto pode ser um ponto de viragem — a capacidade de computação deixa de estar monopolizada pelos centros de dados e cada dispositivo pode tornar-se um nó da rede.
O potencial da computação de edge aliada à IA on-chain acaba de aumentar consideravelmente.