Porozmawiajmy o twardych faktach: Zerobase w moich oczach
Bracia, ostatnio mocno zgłębiałem temat ekonomii zdecentralizowanych sieci dowodowych i odkryłem coś, co mnie zdziwiło. Na rynku sprzętu ZK akceleratorów, praktycznie wszyscy są „szaleńcami z materiałami”. Gromadzą mnóstwo wysokiej klasy GPU i FPGA, ale niewielu z nich zastanawia się, ile mocy obliczeniowej tak naprawdę marnuje się na przepustowość sieci i harmonogram zadań podczas pracy między węzłami?
Najgorszy jest tradycyjny model „wyścigu”: kto pierwszy obliczy, ten bierze nagrodę. To bezpośrednio prowadzi do sytuacji, w której blisko 90% maszyn wykonuje bezsensowną pracę, a moc obliczeniowa marnuje się w niekontrolowany sposób.
Zredukowanie logiki podstawowej
Później rozłożyłem architekturę rozproszonego klastra obliczeniowego Zerobase i odkryłem, że ten gość ma stabilny pomysł, koncentrując się na jednym ograniczeniu:
• Rozdrabnianie zadań: nie dąży do maksymalnej mocy obliczeniowej, lecz stworzył dynamiczny silnik przydzielania zadań, który bardzo precyzyjnie dzieli ogromne ograniczenia obwodowe.
• Przekształcanie całości w części, aby wycisnąć moc obliczeniową: gdy uruchamiałem jego węzeł lokalnie, odkryłem, że nie wymaga on brutalnej synchronizacji pełnych stanów, lecz polega na wysoko zoptymalizowanych zobowiązaniach kryptograficznych, co pozwala różnym węzłom weryfikować tylko te fragmenty, za które są odpowiedzialne. Ta operacja bezpośrednio obniża koszt marginalny generowania dowodu.
Arogancja geeków i szkielet realizacji
Jednak muszę narzekać, obecna dokumentacja wdrożeniowa Zerobase emanuje pewną „arogancją geeków”, a jeśli nie masz podstaw w zakresie harmonogramowania klastrów, to na początku konfigurowanie sieci i środowiska na pewno doprowadzi cię do szaleństwa.
Ale mówiąc szczerze, ten wysoki próg wejścia sprawia, że czujesz się pewniej. Cała branża maluje wielkie obrazki korzystając z TPS, a jeśli prawdziwy koszt zdecentralizowanego dowodu jest wyższy niż w przypadku scentralizowanych usług chmurowych, to tak zwana „prywatność i skalowalność” w końcu okazują się tylko fałszywymi twierdzeniami w laboratoriach. Takie podejście jak Zerobase, które skupia się na efektywności podstawowego harmonogramowania i mocno ogranicza marnotrawstwo mocy obliczeniowej, być może jest właśnie tym, co ZK naprawdę potrzebuje, aby przejść do dużych projektów.
