Przeszkodą w masowym wdrażaniu inteligentnych robotów klasy milionów nie są nigdy możliwości obliczeniowe chipów, lecz cztery słowa: kto ponosi odpowiedzialność?

Mówiąc o zimnej rzeczywistości: jeśli całkowicie autonomiczny robot przemysłowy uderzy w człowieka lub zniszczy pół warsztatu, obecny system prawny natychmiast wpadnie w chaos. Czy to operator z tła się pomylił? Czy lokalny model miał logiczną iluzję? A może system operacyjny na najniższym poziomie miał błąd?

Nie mogąc znaleźć podmiotu odpowiedzialnego, koszty procesów prawnych, z którymi boryka się instytucja, mogą natychmiast przewrócić bilans aktywów i pasywów. Dopóki ta prawna czarna dziura nie zostanie wypełniona, duże fundusze po prostu nie odważą się na masowe składanie zamówień w tym obszarze.

To jest powód, dla którego tak upieram się przy @Fabric Foundation ($ROBO).

Fabric pracuje nad zestawem niezwykle surowych środków obrony zgodności: zdecentralizowanym systemem odpowiedzialności (Accountability).

W logice Fabric, każdy robot działający w systemie OM1, każda jego kluczowa instrukcja działania, zostanie przekształcona w zestaw nienaruszalnych dzienników na łańcuchu. To jakby zamontować czarną skrzynkę lotniczą w fizycznym świecie.

Kiedy coś się stanie, system może precyzyjnie prześledzić, kto ponosi odpowiedzialność, jak obieranie cebuli. Ta zdolność do unikania przerzucania winy jest jedynym kluczem do umożliwienia instytucjom masowego wprowadzenia środków finansowych.

W tej zamkniętej pętli, dopóki dążysz do skalowania wdrożenia robotów, musisz uregulować tę opłatę za audyt zgodności. W odniesieniu do modelu tokenów, to jest $ROBO najtwardsza niezbędna konsumpcja.

Czy chcesz zaryzykować, że w przypadku problemu trzeba będzie wstrzymać pracę i przeprowadzić reorganizację, czy może postawić na ten system odpowiedzialności, który precyzyjnie określi odpowiedzialność w fizycznym świecie?

#robo #Aİ