Czy to kumulacja mocy obliczeniowej, czy rekonstrukcja podstaw? Analiza zysków i strat architektury Fabric

W ciągu ostatnich dni intensywnie testowałem podstawową architekturę Fabric Foundation, próbując w pełni uruchomić węzły obliczeniowe i połączyć je z istniejącą grupą sprzętową. Po zdjęciu tej zdecentralizowanej powłoki, rdzeń problemu pozostaje starym, znanym problemem zarządzania zasobami.

Po zakończeniu kilku zadań szkoleniowych modeli uczenia wzmacniającego zauważyłem, że jego mechanizm synchronizacji stanu ma wyraźne opóźnienia i wahania. Gdy równoległe żądania przekraczają wartość krytyczną, w sieci konsensusu pojawiają się krótkie zawieszenia. Zdecentralizowana sieć zawsze musi płacić za koszty komunikacji węzłów, ale podczas realizacji zadań związanych z interakcją elektromechaniczną o wysokiej częstotliwości, takie straty na poziomie podstawowym są niezwykle śmiertelne.

W porównaniu do sąsiedniej sieci Akash, w podobnych testach równoległych, Akash dzięki silnemu scentralizowanemu dopasowaniu dobrze prezentuje dane powierzchniowe, maskując fragmentację wynikającą z heterogeniczności sprzętu. Fabric postanawia jednak twardo trzymać się czystego adresowania punkt-punkt, a koszt tego projektu to kompromis w zakresie czasowości, z korzyścią w postaci znacznego wzrostu tolerancji na błędy węzłów; pojedyncze fizyczne odłączenie nigdy nie spowoduje kaskadowego załamania.

Obecna architektura wersji nie nadaje się do bezpośredniego wdrożenia w systemach decyzyjnych o ekstremalnej wrażliwości na opóźnienia. Przypomina bardziej platformę eksperymentalną, która wciąż przechodzi przez iteracje prób i błędów. Ramy protokołu są bardzo złożone, ale surowość kodu na poziomie wdrożenia inżynieryjnego jest trudna do ukrycia, a logika wywołań interfejsu ma ogromne pole do uproszczenia.

To z pewnością nie jest całkowite odrzucenie. Żaden fundament obliczeniowy nie może być wieczny. Oferuje zupełnie nowe możliwości topologiczne dla rozproszonej współpracy urządzeń brzegowych, a potencjał do dalszego rozwoju jest ogromny. Ocena żywotności protokołu nie powinna skupiać się tylko na teoretycznych szczytach w białych księgach; sprawdzenie rzeczywistego wskaźnika utraty połączeń przy ekstremalnych obciążeniach to poważna sprawa. Czy wspaniały plan zostanie zrealizowany na czas, zależy od efektywności postępu w rekonstrukcji kodu podstawowego przez zespół deweloperski.

@Fabric Foundation $ROBO #ROBO