Tamtym razem prawie rozśmieszyło mnie AI obsługi klienta, dopiero wtedy odkryłem, że Fabric chwycił za "żyłę" AGI
W zeszłym miesiącu chciałem zamówić dla mamy pakiet badań, znany asystent zdrowotny AI rozmawiał przez dziesięć minut, zapewniając, że poleca jedną instytucję. Gdy dotarłem na miejsce, odkryłem, że już dawno była zgłaszana przez ministerstwo zdrowia, a nadmierne leczenie oszukało setki starszych osób.
Zgłosiłem się do obsługi klienta, robot odpowiedział: "Zarejestrowano feedback." Gdy znowu skontaktowałem się z człowiekiem, powiedzieli, że model AI jest dostarczany przez zewnętrznego dostawcę, a oni tylko odpowiadają za integrację.
Ta sprawa tak się zakończyła.
Ale wciąż myślę: jeśli AGI naprawdę zacznie wystawiać recepty w szpitalach, pisać wyroki w sądach, to jakie dane zostały mu wprowadzone, kto weźmie odpowiedzialność?
Niedawno przyjaciel zajmujący się infrastrukturą AI namówił mnie do obejrzenia Fabric Protocol, zrozumiałem to dopiero na trzecim poziomie — ci ludzie w ogóle nie planowali konkurować w DeFi, to, co robią, jest przerażające: zakładają AGI "znaki wodne danych".
Ich warstwa zweryfikowanego obliczenia nie tylko potrafi weryfikować wykonanie przez robota, ale także śledzić — weryfikować dane treningowe modelu. Każdy punkt danych skąd pochodzi, który model go wykorzystał, jakie wyniki uzyskano, cała ścieżka na łańcuchu. Nie chodzi o to, że nie ufamy "zgodności danych" dużych firm, ale o to, żeby matematyka była sędzią.
OtwarteUmysły zainwestowały prawdziwe dwa miliony dolarów. Boyuan Chen i ludzie z MIT i DeepMind doskonale wiedzą, gdzie jest słaby punkt AGI: największym ograniczeniem dużych modeli nie jest moc obliczeniowa, ale prawdziwość i możliwość śledzenia źródła danych. Jeśli użyjesz modelu wytrenowanego na poście z Redditu do wydania wyroku, to nie jest praworządność, to jest mistycyzm.
Fabric obecnie wykonuje ponad dwadzieścia tysięcy operacji dziennie, z prędkością 3200 transakcji na sekundę, ponad dwa tysiące punktów ładowania — te dane nie są po to, aby chwalić się TPS, lecz aby potwierdzić jedną rzecz: gdy AGI jest wywoływane dziesiątki tysięcy razy dziennie, czy można nadal zagwarantować, że nie pomyliło leków.
Ostatnio ROBO weszło do kilku dużych prawników, a w branży rozmawia się głównie o cenach. Ale uważam, że najcenniejsze nie jest w tej linii K, lecz w tej logice: jeśli przyszłe AGI spowoduje błąd medyczny lub wyrok błędny, nie można obarczać winą tylko programistów. Każdy błąd musi mieć ślad "przepisu" — jakie dane zostały użyte, by go wyprodukować, wszystko musi być dokładnie zapisane na łańcuchu.
Ten przepis, teraz jest w rękach tych, którzy dostali airdrop. @Fabric Foundation #ROBO $ROBO