Cena uczciwości robotów: gdy protokół Fabric decyduje o rozbiciu każdej linii logiki „czarnej skrzynki” algorytmu
W laboratorium tylko ten czworonożny robot, który właśnie wykonuje zadanie inspekcji, mechanicznie powtarza swoje ruchy, a niski dźwięk silnika odbija się w pustych korytarzach. Właśnie zakończyłem rundę testów destrukcyjnych, próbując za pomocą ataku pośredniego wstrzyknąć do jego warstwy percepcyjnej ciąg fałszywych danych z głębokiej kamery. W systemie konwencjonalnym te dane byłyby bezpośrednio podawane do drzewa decyzyjnego, co spowodowałoby, że robot zbaczyłby z wyznaczonej trasy, aby uniknąć nieistniejącej „przeszkody”, co mogłoby nawet doprowadzić do awarii systemu. Jednak w środowisku OM1 z warstwą weryfikacji Fabric, ten zmanipulowany pakiet danych został przechwycony na sekundę przed wejściem do linii decyzyjnej. Alarm, który pojawił się na ekranie, nie był prostym „błędem systemu”, ale kompletnym łańcuchem dowodowym. W tamtej chwili uświadomiłem sobie, że nasze dotychczasowe rozumienie „bezpieczeństwa robotów” mogło pozostawać na poziomie fizycznej obrony, podczas gdy Fabric robi to, co daje każdej krzemowej duszy „cyfrowy rejestrator jazdy”, którego nie można kupić.