Les robots ne deviennent pas utiles lorsqu'ils marchent ou courent.
Ils deviennent utiles lorsqu'ils comprennent.
C'est exactement ce que @openmind_agi a récemment débloqué et honnêtement, regarder ce changement se dérouler en temps réel semble surréaliste.
En intégrant NVIDIA Jetson Thor dans le OpenMind BrainPack, les robots OM1 acquièrent soudainement la puissance de calcul nécessaire pour un raisonnement AI en temps réel, une perception et une navigation sûre, tout ce qui manquait à l'autonomie dans les robots de consommation. J'ai toujours pensé que la robotique avait du potentiel, mais il manquait quelque chose de critique. Thor comble enfin cette lacune.
Thor permet à ces robots d'exécuter des modèles d'IA lourds localement. OpenMind leur donne l'intelligence d'utiliser ces modèles dans le monde réel.
Navigation urbaine Prédiction des obstacles Vision respectueuse de la vie privée Mouvement adaptatif Apprentissage continu
Ensemble, ils forment la différence entre un robot qui exécute une routine chorégraphiée et un robot qui peut réellement fonctionner dans une rue de ville imprévisible, un bureau bondé ou votre salon. Je vois l'industrie passer d'un "comportement préprogrammé" à une véritable autonomie dans le monde réel et cela se produit plus vite que quiconque ne l'avait prévu.
C'est ainsi que les robots passent de "démonstration technologique cool" à "assistant réel capable de se déplacer dans une ville ou un domicile sans se perdre." Et honnêtement, voir OpenMind repousser cette frontière rend clair : nous entrons dans une nouvelle ère de l'IA incarnée.
Le BrainPack était déjà impressionnant. Thor vient de le transformer en un jalon pour toute l'industrie de la robotique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les robots ne deviennent pas utiles lorsqu'ils marchent ou courent.
Ils deviennent utiles lorsqu'ils comprennent.
C'est exactement ce que @openmind_agi a récemment débloqué et honnêtement, regarder ce changement se dérouler en temps réel semble surréaliste.
En intégrant NVIDIA Jetson Thor dans le OpenMind BrainPack, les robots OM1 acquièrent soudainement la puissance de calcul nécessaire pour un raisonnement AI en temps réel, une perception et une navigation sûre, tout ce qui manquait à l'autonomie dans les robots de consommation. J'ai toujours pensé que la robotique avait du potentiel, mais il manquait quelque chose de critique. Thor comble enfin cette lacune.
Thor permet à ces robots d'exécuter des modèles d'IA lourds localement.
OpenMind leur donne l'intelligence d'utiliser ces modèles dans le monde réel.
Navigation urbaine
Prédiction des obstacles
Vision respectueuse de la vie privée
Mouvement adaptatif
Apprentissage continu
Ensemble, ils forment la différence entre un robot qui exécute une routine chorégraphiée et un robot qui peut réellement fonctionner dans une rue de ville imprévisible, un bureau bondé ou votre salon. Je vois l'industrie passer d'un "comportement préprogrammé" à une véritable autonomie dans le monde réel et cela se produit plus vite que quiconque ne l'avait prévu.
C'est ainsi que les robots passent de "démonstration technologique cool" à "assistant réel capable de se déplacer dans une ville ou un domicile sans se perdre." Et honnêtement, voir OpenMind repousser cette frontière rend clair : nous entrons dans une nouvelle ère de l'IA incarnée.
Le BrainPack était déjà impressionnant. Thor vient de le transformer en un jalon pour toute l'industrie de la robotique.