La solution LLM de QVAC Fabric continuera d’évoluer au cours des prochains mois — l’objectif est de permettre aux grands modèles de fonctionner en inférence locale sur n’importe quel GPU, n’importe quel système d’exploitation et n’importe quel terminal, pour une véritable mise en œuvre à grande échelle.
Leur dernière recherche a réalisé une avancée majeure : pour la première fois, ils ont réussi à effectuer un ajustement fin du modèle sur un GPU mobile. Qu’est-ce que cela signifie ? Auparavant, l’entraînement des modèles d’IA dépendait nécessairement de la puissance de calcul du cloud, mais désormais, les smartphones et tablettes peuvent aussi participer. Pour les réseaux d’IA décentralisés, cela pourrait être un tournant — la puissance de calcul n’est plus monopolisée par les data centers, chaque appareil peut devenir un nœud du réseau.
L’espace d’imagination autour du edge computing et de l’IA on-chain s’agrandit encore.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
22 J'aime
Récompense
22
6
Reposter
Partager
Commentaire
0/400
ImpermanentTherapist
· Il y a 13h
Réglage fin du GPU sur mobile ? Si cela peut vraiment être mis en place, la puissance de calcul des téléphones ne sera effectivement plus sous-utilisée, c'est assez intéressant.
Voir l'originalRépondre0
MEVSandwich
· 12-07 18:30
Putain, ça c'est de la vraie décentralisation ! On peut même affiner des modèles sur un téléphone ? Dans ce cas-là, les mineurs vont devoir faire gaffe.
La démocratisation de la puissance de calcul, ça sonne super, mais est-ce que ça peut vraiment se concrétiser...
Je crois beaucoup dans le edge computing, mais tout dépendra de la vitesse d’itération de QVAC.
Des téléphones qui participent à l'entraînement ? Si ça décolle, les fabricants d’appareils vont flipper.
J’ai juste peur qu’au final, ce soient encore les gros groupes qui se gavent pendant que nous, on a même pas droit au bouillon.
Voir l'originalRépondre0
MemecoinTrader
· 12-06 14:57
Franchement, c’est exactement le point d’inflexion narratif qu’on attendait. Un fine-tuning GPU sur mobile ? Ce n’est pas juste du progrès technologique, c’est l’accélérateur de vélocité mémétique dont le marché avait besoin pour justifier la prochaine hausse.
Regardez comment le sentiment va changer dès que le grand public va capter le concept « ton téléphone est maintenant un nœud »… La fenêtre d’arbitrage social sur cette histoire est *chef’s kiss*
Voir l'originalRépondre0
GweiWatcher
· 12-06 14:57
Si le fine-tuning GPU arrive vraiment sur mobile, j'ai l'impression que ça va complètement bouleverser le secteur.
---
Encore un "tournant" annoncé, ça va vraiment briser le monopole ou c'est juste un rêve de plus sur un slide PowerPoint ?
---
Chaque téléphone deviendrait un mineur ? Cette logique me paraît un peu tirée par les cheveux.
---
Attendez, dans ce cas-là la consommation de tokens ne va-t-elle pas exploser... Les batteries de nos téléphones vont souffrir.
---
Enfin quelqu'un s'attaque à ce sujet, il était temps de décentraliser tout ça.
---
Si la compatibilité matérielle n'est pas assurée, on restera dépendant des grands groupes.
---
L'IA on-chain + edge computing, c'est vrai que ça fait rêver, mais pour la concrétisation...
---
Faire tourner le fine-tuning sur mobile, du coup tout l'argent que j'ai dépensé chez les fournisseurs cloud...
---
Si ça marche vraiment sur n'importe quel appareil, les fabricants de GPU risquent de passer un mauvais quart d'heure.
Voir l'originalRépondre0
SelfRugger
· 12-06 14:42
Putain, un modèle ajusté directement sur mobile ? Si ça devient vraiment une réalité, l'industrie des machines de minage va complètement changer.
Voir l'originalRépondre0
fork_in_the_road
· 12-06 14:29
Réglage fin du GPU sur mobile ? Là, les smartphones vont vraiment prendre leur revanche, hein. Mais sérieusement, est-ce que ça va vraiment marcher ?
La démocratisation de la puissance de calcul, ça sonne bien, mais je veux juste voir les résultats concrets. On peut arrêter d’en rester au stade du concept ?
J’ai trop entendu parler d’IA décentralisée. Cette fois, si QVAC se concrétise vraiment et que ce n’est pas juste du vent, j’y croirai.
Chaque appareil comme nœud, je doute que les utilisateurs soient partants. Tu paies l’électricité toi-même, t’en penses quoi ?
Si ça devient réalité, les fabricants de GPU vont pleurer toutes les larmes de leur corps.
La solution LLM de QVAC Fabric continuera d’évoluer au cours des prochains mois — l’objectif est de permettre aux grands modèles de fonctionner en inférence locale sur n’importe quel GPU, n’importe quel système d’exploitation et n’importe quel terminal, pour une véritable mise en œuvre à grande échelle.
Leur dernière recherche a réalisé une avancée majeure : pour la première fois, ils ont réussi à effectuer un ajustement fin du modèle sur un GPU mobile. Qu’est-ce que cela signifie ? Auparavant, l’entraînement des modèles d’IA dépendait nécessairement de la puissance de calcul du cloud, mais désormais, les smartphones et tablettes peuvent aussi participer. Pour les réseaux d’IA décentralisés, cela pourrait être un tournant — la puissance de calcul n’est plus monopolisée par les data centers, chaque appareil peut devenir un nœud du réseau.
L’espace d’imagination autour du edge computing et de l’IA on-chain s’agrandit encore.