Przez ostatnie dwa dni natknąłem się na wiadomość: pewna autonomiczna taksówka została zatrzymana przez policję drogową, ponieważ "wahała się" na skrzyżowaniu przez trzy minuty, co spowodowało długą kolejkę za nią. W komentarzach wybuchła kłótnia - niektórzy mówili, że to wina samochodu, inni że to wina warunków drogowych, a jeszcze inni że "musisz skontaktować się z producentem, czemu krzyczysz na mnie".

Nagle pomyślałem o jednym pytaniu: jeśli ten samochód byłby robotem, który popełnił "zły czyn", kto jest odpowiedzialny? Do kogo się odwołać?

To jest właśnie @Fabric Foundation , które od samego początku było ukrytym wątkiem: mechanizm rozwiązywania sporów na łańcuchu.

W tradycyjnych robotach, gdy pojawiają się problemy, musisz skontaktować się z producentem, operatorem, szukać rozwiązania, czekać na odpowiedź, a gdy proces się zakończy, sprawa już dawno straciła na znaczeniu. Myślą Fabric jest: wbudować kanał odwoławczy w kod.

Każde zadanie, od momentu opublikowania do zakończenia, jest całkowicie rejestrowane na łańcuchu. Co robot zrobił, gdzie to zrobił, kto złożył zlecenie, jak zostało rozliczone, wszystko jest zapisane w księdze. Gdy pojawi się problem, nie jest to ręczne przeszukiwanie historii rozmów, lecz bezpośrednie zainicjowanie sporu na łańcuchu - system automatycznie pobiera dane wykonania, weryfikuje podpisy węzłów i zapis historii.

Jeszcze ciekawszy jest system arbitrażu z wagą reputacji. Robot z 3000 zleceń i 99% pozytywnych ocen oraz nowicjusz, który dopiero co zaczął, składają odwołanie, system priorytetowo traktuje kogo? Nie chodzi o to, że mniejszość poddaje się większości, ale o historię wkładu. To się nazywa „ci, którzy pracowali, mają prawo się odzywać”.

Najsilniejszym punktem tego projektu jest to, że nie czeka się na problemy, aby znaleźć rozwiązanie, lecz od początku wszyscy uczestnicy wiedzą, że „kłamstwo zostanie wykryte”.

Księgi są niezmienne, a złe czyny nie pozostaną bezkarne. Węzły weryfikacyjne nadzorują cały proces, aby oszukać, trzeba przekupić ponad 1/3 węzłów, co kosztuje więcej niż potencjalne korzyści. Z czasem roboty naturalnie nauczą się „uczciwości”.

Czy to nie jest logika „praworządności” w społeczeństwie ludzkim? Nie opiera się na moralności, lecz na „kosztach łamania prawa, które są wystarczająco wysokie”.

System „12315”, który Fabric wprowadza do świata maszyn, w zasadzie mówi: maszyny mogą popełniać błędy, ale błędy muszą mieć swoją cenę, a cena musi być pokryta, a dowody muszą być dostępne.

Jeśli masz $ROBO w ręku, nie spiesz się z jego sprzedażą, w przyszłości może to być prawo głosu dla robota w sprawie „rozstrzygania”.

#ROBO

ROBO
ROBOUSDT
0.04004
-0.10%