Роботи не стають корисними, коли вони ходять або бігають.
Вони стають корисними, коли розуміють.
Це саме те, що @openmind_agi нещодавно розблокував, і чесно кажучи, спостерігати за цим зсувом в реальному часі відчувається сюрреалістично.
Інтегруючи NVIDIA Jetson Thor у OpenMind BrainPack, роботи OM1 раптово отримують обчислювальні можливості, необхідні для реального AI-розуміння, сприйняття та безпечної навігації, всього того, чого не вистачало автономії в роботах споживчого класу. Я завжди відчував, що робототехніка має потенціал, але їй не вистачало чогось критичного. Thor нарешті заповнює цю прогалину.
Thor дозволяє цим роботам запускати важкі моделі ШІ локально. OpenMind надає їм інтелект, щоб використовувати ці моделі у реальному світі.
Міська навігація Прогнозування перешкод Приватна безпечна візія Адаптивний рух Безперервне навчання
Разом вони формують різницю між роботом, який виконує хореографічну рутину, та роботом, який може насправді функціонувати на непередбачуваній міській вулиці, у переповненому офісі або у вашій вітальні. Я спостерігаю, як індустрія переходить від "попередньо запрограмованої поведінки" до справжньої автономії у реальному світі, і це відбувається швидше, ніж будь-хто очікував.
Ось як роботи переходять від "класної технологічної демонстрації" до "справжнього асистента, який може пересуватися містом або домом, не плутаючись". І, чесно кажучи, бачити, як OpenMind просуває цей фронтир, стає зрозуміло: ми вступаємо в нову еру втіленого штучного інтелекту.
BrainPack вже був вражаючим. Тор тільки що перетворив його на віху для всієї робототехнічної індустрії.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Роботи не стають корисними, коли вони ходять або бігають.
Вони стають корисними, коли розуміють.
Це саме те, що @openmind_agi нещодавно розблокував, і чесно кажучи, спостерігати за цим зсувом в реальному часі відчувається сюрреалістично.
Інтегруючи NVIDIA Jetson Thor у OpenMind BrainPack, роботи OM1 раптово отримують обчислювальні можливості, необхідні для реального AI-розуміння, сприйняття та безпечної навігації, всього того, чого не вистачало автономії в роботах споживчого класу. Я завжди відчував, що робототехніка має потенціал, але їй не вистачало чогось критичного. Thor нарешті заповнює цю прогалину.
Thor дозволяє цим роботам запускати важкі моделі ШІ локально.
OpenMind надає їм інтелект, щоб використовувати ці моделі у реальному світі.
Міська навігація
Прогнозування перешкод
Приватна безпечна візія
Адаптивний рух
Безперервне навчання
Разом вони формують різницю між роботом, який виконує хореографічну рутину, та роботом, який може насправді функціонувати на непередбачуваній міській вулиці, у переповненому офісі або у вашій вітальні. Я спостерігаю, як індустрія переходить від "попередньо запрограмованої поведінки" до справжньої автономії у реальному світі, і це відбувається швидше, ніж будь-хто очікував.
Ось як роботи переходять від "класної технологічної демонстрації" до "справжнього асистента, який може пересуватися містом або домом, не плутаючись". І, чесно кажучи, бачити, як OpenMind просуває цей фронтир, стає зрозуміло: ми вступаємо в нову еру втіленого штучного інтелекту.
BrainPack вже був вражаючим. Тор тільки що перетворив його на віху для всієї робототехнічної індустрії.