Dzisiaj zobaczyłem, że @Fabric Foundation zaktualizowało nowe treści współpracy!\n\nOpenMind mówi, że OM1 jest już kompatybilny z K1 od Booster Robotics (wspomniano również ich model K1), a to nie kończy się na „miłej współpracy”, lecz od razu podano opis możliwości - K1 może śledzić ruchy/lokalizację ludzi, a po osiągnięciu określonej odległości może wywołać polecenia ruchu, aby podążać.\n\nRozumiem to w ludzkim języku tak: to już nie jest robot, który stoi i pozowanie, lecz zaczyna mieć „moduły zachowań do ponownego wykorzystania”.\n\nMożesz kazać mu podążać za sobą, utrzymywać odległość, poruszać się zgodnie z poleceniem, te rzeczy brzmią prosto, ale w rzeczywistości potrzebują całego zestawu połączeń: percepcja (lokalizacja + identyfikacja) → planowanie (jak się poruszać) → kontrola (jak się poruszać) → bezpieczeństwo (nie uderz w ludzi/nie przewróć się).\n\nWartość OpenMind polega na tym, że przekształcają ten zestaw z „każdy pisał to sam” w „podłączenie jak wtyczki”, a wartość Booster polega na dostarczeniu stosunkowo stabilnej, przyjaznej dla dewelopera platformy sprzętowej i łańcucha narzędzi. Połączenie sprzętu i oprogramowania wyraźnie obniży próg wejścia dla deweloperów.\n\nTeraz jestem bardziej wrażliwy na tego rodzaju aktualizacje, ponieważ idealnie wpisują się w trend „AI od mówienia do działania”. Model staje się coraz silniejszy, to prawda, ale prawdziwym problemem jest praktyczne zastosowanie: kto potrafi zrealizować możliwości w standardowy interfejs, stworzyć zachowania jako komponenty do wywołania i wdrożyć je na sprzęcie do masowej produkcji, ten ma większą szansę na rozwój fizycznego agenta.\n\nDlatego uważam, że kluczowym punktem tego tweeta nie jest „znowu współpraca”, ale to, że zaczynają uruchamiać konkretne funkcje, i mogą je przenosić na różny sprzęt. Tego rodzaju rzeczy powinno być więcej, aby ekosystem naprawdę zaczął działać.🤔\n $ROBO #ROBO \n