Siadam i zastanawiam się, jak wciąż traktujemy roboty jak narzędzia.
Skanują, przenoszą, ale rzadko otrzymują wynagrodzenie bezpośrednio; praca przepływa przez firmy, a nie maszyny, które to robią. Pomysł Fabric polega na nadaniu robotom weryfikowalnych tożsamości i portfeli na łańcuchu, aby mogły akceptować zadania, udowadniać wykonanie i rozliczać się automatycznie, co zmienia zachęty i kto może dostarczać usługi, jeśli maszyny mogą transakcjonować samodzielnie. Automatyzacja przestaje być izolowanymi flotami i zaczyna przypominać prawdziwy rynek pracy. Co się wtedy zmienia?
Pięciowarstwowa architektura za siecią robotów Fabric
Ciągle zauważam, że kiedy ludzie wyobrażają sobie robotykę w skali, wyobrażają sobie jeden system robiący wszystko, jeden łańcuch, jeden zestaw reguł, jedną płaszczyznę kontroli, a to nie jest sposób, w jaki zazwyczaj rosną duże systemy.
W prawdziwym świecie rzeczy się rozdzielają, sieci ewoluują, warstwy, tożsamość, komunikacja, koordynacja, zarządzanie, rozliczenie, internet i finanse pokazują ten sam wzór, oddzielne kwestie, oddzielne warstwy, ponieważ złożoność to wymusza.
Na poziomie gruntu nadal widzisz praktyczne problemy robotów magazynowych, które mogą podnosić pudełka, dron może zbierać dane. Ale te maszyny rzadko rozmawiają ze sobą poza granicami firmy, różne stosy, różne logi, różne rozliczenia, ta fragmentacja zamienia koordynację w trudny problem długo przed tym, jak inteligencja staje się czynnikiem ograniczającym.
Ciągle zauważam, że większość rozmów na temat niezawodności AI wraca do jednej idei: poprawić model, większe sieci, więcej danych, świeższe dostrajanie, ale istnieje inny ryzyko, które zyskuje mniej uwagi: zależność od jednego modelu jako de facto źródła prawdy.
Ta pojedyncza punktowa awaria epistemiczna wydaje się prosta na papierze i niebezpieczna w praktyce; jeśli model jest stronniczy, źle skalibrowany lub po prostu pechowy na wycinku danych, cały stos dziedziczy ten błąd.
To, co @Mira - Trust Layer of AI wydaje się robić, to zmiana pytania: zamiast prosić jeden model o bycie ostatecznym arbitrem, Mira przekształca wyniki w weryfikowalne twierdzenia i przekazuje je do wielu niezależnych weryfikatorów. Zgoda wśród tych weryfikatorów, a nie wynik pewności jednego modelu, staje się sygnałem, któremu ufamy.
Obserwuję, jak większość sieci robotycznych jest wyobrażana jako jeden duży system, który robi wszystko.
Jeden łańcuch, jeden protokół, jedna warstwa do całej koordynacji.
Jednak złożone systemy rzadko skalują się w ten sposób.
Podejście fabryczne do robotyki jest bardziej jak infrastruktura tożsamości dla komunikacji maszyn między agentami, koordynacja zadań dla pracy, zarządzanie zasadami i rozliczenie za nagrody.
Interesującą częścią jest to, co się dzieje, gdy się łączą.
Ponieważ gdy roboty mogą się identyfikować, odkrywać zadania, weryfikować pracę i otrzymywać zapłatę, przestają zachowywać się jak odizolowane maszyny.
Zaczynają zachowywać się jak uczestnicy w zsieciowanej gospodarce.
Pięcio-warstwowa architektura stojąca za siecią robotów Fabric
Ciągle zauważam, że gdy ludzie wyobrażają sobie sieć robotyczną, często przedstawiają jeden dużym system zarządzający wszystkim.
Jeden protokół, jeden łańcuch, jedna część infrastruktury koordynująca maszyny.
Ale złożone technologie rzadko rozwijają się w ten sposób.
Większość systemów, na których polegamy dzisiaj, rozwijała się w warstwach. Internet ma warstwy routingu, warstwy komunikacyjne, warstwy aplikacji, systemy finansowe oddzielające przesyłanie wiadomości od rozliczeń, gdy sieć staje się wystarczająco duża, różne funkcje naturalnie się rozdzielają.
Ciągle myślę o tym, jak większość systemów AI próbuje rozwiązać problem niezawodności. #Mira
Zwykle odpowiedź jest prosta: zbudować mniejszy model.
Ale co jeśli prawdziwym problemem nie jest inteligencja?
Co @Mira - Trust Layer of AI bada, to inna struktura, zamiast ufać odpowiedzi jednego modelu, system pozwala wielu niezależnym modelom przeglądać tę samą tezę i porównywać wyniki.
Interesującą częścią jest to, co dzieje się następnie.
Weryfikatorzy stawiają $MIRA , aby wziąć udział. Uczciwa weryfikacja przynosi nagrody. Nieuczciwe zachowanie wiąże się z ryzykiem utraty tej stawki.
Tak więc niezawodność przestaje być cechą modelu.
Staje się czymś, co system egzekwuje ekonomicznie.
AI nie musi być doskonałe, jeśli sieć ma powód, by je sprawdzić.
Czasami prawda staje się silniejsza, gdy zachęty zaczynają ją chronić.
Dlaczego Mira przekształca niezawodność AI w system ekonomiczny oparty na kryptowalutach
Kiedyś myślałem, że sposób na uczynienie AI niezawodnym polega po prostu na poprawie modelu, dłuższym treningu, dodawaniu większej ilości danych, poprawie architektury; jeśli model stanie się wystarczająco inteligentny, błędy w końcu znikną.
Ale prawdziwe systemy rzadko zachowują się w ten sposób.
W większości złożonych systemów niezawodność nie pochodzi z doskonałości, lecz z struktury; rynki finansowe polegają na zachętach, sieci rozproszone polegają na niezależnych walidatorach, a nawet nauka zależy od innych ludzi weryfikujących pracę.
Ten wzór zaczyna się pojawiać w tym, jak @Mira - Trust Layer of AI ramki przedstawiają problem niezawodności.
Tak, muszą poprawić swoją pracę, aby nie być oszustami, ja również się z tym zmagam 😡😡🐒👈
Blind_Soul
·
--
EP4 S1 Seria (Zespół Dirty Paid) p zostawiłem trochę na sezon 2 i 3 ..ciesz się huh to jest sposób na stworzenie dobrego wysokiego contentu huh ona się boi 😂😂😂 i zmieniła na następnego Agenta @Binance Customer Support @BinanceCIS
Obserwuję, jak roboty stają się coraz mądrzejsze z każdym rokiem.
Mogą przenosić towary, kontrolować maszyny, a nawet podejmować decyzje samodzielnie.
Jednak coś w tym zawsze wydaje się niekompletne.
Robot może wykonać pracę, ale zazwyczaj nie może otrzymać wynagrodzenia.
Wszystko wciąż przebiega przez firmy lub platformy ponad maszyną.
Fabric bada inny pomysł, dając robotom tożsamość on-chain i portfele, aby mogły otrzymywać płatności i bezpośrednio interagować z sieciami.
Gdy maszyny będą mogły transakcjonować samodzielnie, automatyzacja zacznie wyglądać mniej jak narzędzia, a bardziej jak uczestnicy wspólnego systemu ekonomicznego.
Ciągle dostrzegam coś dziwnego, gdy ludzie rozmawiają o robotyce.
Większość rozmowy dotyczy inteligencji, lepszych modeli, lepszego sprzętu, szybszego podejmowania decyzji.
Ale jest jeszcze jedno ograniczenie, które cicho siedzi w tle.
Roboty mogą pracować, ale zazwyczaj nie mogą otrzymywać wynagrodzenia.
Pomyśl o tym, jak działa automatyzacja dzisiaj. Robot może przenosić paczki po podłodze magazynu lub skanować sprzęt w fabryce. Wykonuje zadanie, ale gdy praca jest zakończona, sama maszyna nic nie otrzymuje. Płatność trafia do firmy prowadzącej system.
Dlaczego Mira traktuje błędy AI jako problem systemowy
Ciągle zauważam, że gdy systemy AI popełniają błędy, zwykle odpowiedzią jest poprawa samego modelu, dłuższe szkolenie, dodanie większej ilości danych, dostosowanie wyrównania. Założenie jest takie, że niezawodność ostatecznie się pojawi, jeśli model stanie się wystarczająco zdolny.
Ale niezawodność nie zawsze tkwi w modelu.
Systemy AI są z definicji probabilistyczne, nawet silne modele mogą generować pewne odpowiedzi, które są niekompletne, stronnicze lub po prostu błędne; w wielu przypadkach prawdziwym problemem nie jest inteligencja, ale to, jak system decyduje, czy odpowiedź powinna być ufna.
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto