Najtrudniejszą częścią wprowadzenia „regulacji” do łańcucha nie jest pisanie większej liczby zasad. To sprawienie, aby zasady były wykonalne.
jeśli @Fabric Foundation przekształca bezpieczeństwo i zgodność w moduły polityki na łańcuchu z różnych organów, sieć zawiedzie pod względem żywotności, zanim zawiedzie pod względem bezpieczeństwa. Konfliktujące ograniczenia nie tylko stworzą przypadki graniczne, ale również stworzą warunki zatrzymania. Operatorzy będą reagować na dwa sposoby, które pozwalają na kontynuację pracy: lokalnie ominą bezpieczeństwo lub całkowicie zatrzymają automatyzację.
Powód na poziomie systemu jest prosty: roboty nie wykonują zamiarów, wykonują skompilowany zestaw reguł. Gdy polityki się zderzają, a nie ma deterministycznej precedencji i logiki rozwiązywania konfliktów, nie otrzymujesz „bezpieczniejszego zachowania”, otrzymujesz oscylację. Jedna aktualizacja mówi „nigdy nie wchodź do strefy X”, inna mówi „dostarcz do pokoju w strefie X”, a jedynym uczciwym wynikiem robota jest niezdecydowanie.
Implikacja: $ROBO zachęty nie będą miały znaczenia, dopóki Fabric nie będzie w stanie deterministycznie skompilować konfliktów polityki w wykonalny, testowalny zestaw reguł, który pozostaje aktywny pod realnym naciskiem operacyjnym. #ROBO