Część, do której wciąż wracam, to to: ludzie nadal mówią o teleoperacjach, jakby były dowodem na to, że robot zawiódł. Nie jestem pewien, czy to ujęcie się sprawdza. W systemach, które dotykają rzeczywistego świata, człowiek w pętli może być mniej kompromitujący, a bardziej prymitywem bezpieczeństwa. Kąt Fabric wydaje się bliższy współpracy człowiek-maszyna niż całkowitemu poddaniu się maszyny. To ma znaczenie. Robot zajmujący się ruchem w magazynie, inspekcją na miejscu lub wspomaganym dostarczaniem może działać autonomicznie przez większość czasu, a następnie oddać kontrolę, gdy środowisko staje się chaotyczne, niejednoznaczne lub ryzykowne.
To nie wygląda dla mnie na zepsutą autonomię. Wygląda to jak warstwa produktu. Trudniejsze pytanie dotyczy kwestii ekonomicznych i prawnych. Jeśli teleoperacje są wbudowane, kto płaci za te minuty interwencji? Sieć, użytkownik, operator sprzętu, czy warstwa aplikacji? A gdy człowiek przejmuje kontrolę w trudnym przypadku brzegowym, kto tak naprawdę ponosi odpowiedzialność, jeśli coś nadal pójdzie nie tak? Prosty przykład ułatwia wyobrażenie sobie tej sytuacji. Wyobraź sobie robota dostawczego docierającego do zatłoczonej klatki schodowej. Pewność widzenia spada. Robot zatrzymuje się. Zdalny człowiek pomaga mu bezpiecznie usunąć przeszkodę. Ta interwencja zwiększa koszty, ale może także zapobiegać znacznie większej awarii. Zaufanie do robotyki może mniej zależeć od „braku ludzi zaangażowanych” a bardziej od tego, czy nadzór jest ustrukturyzowany, wyceniony i odpowiedzialny od pierwszego dnia.
Jeśli Fabric traktuje teleoperacje jako natywną warstwę, jak wyceni interwencje i przypisze odpowiedzialność w całej sieci?
$ROBO #ROBO @Fabric Foundation