Binance Square

J U L I E

image
Zweryfikowany twórca
Blockchain Analyst || Web 3.0 || Market Insights | Binance KOL | Trader
118 Obserwowani
32.8K+ Obserwujący
17.0K+ Polubione
1.0K+ Udostępnione
Posty
·
--
Dlaczego infrastruktura prywatności, taka jak NIGHT, może stać się niezbędna w następnej fazie Blockchain@MidnightNetwork Pamiętam jeden wieczór, kiedy spędziłem więcej czasu przeglądając eksploratora bloków, niż się spodziewałem. Nie było szczególnego powodu. Po prostu ciekawość. Portfele przenoszące środki, znaczniki czasu gromadzące się, całe historie finansowe spokojnie siedzące na publicznej stronie. Na początku wydawało się to imponujące, prawie jak obserwowanie wewnętrznego okablowania systemu finansowego. Ale po pewnym czasie coś w tym zaczęło wydawać się niezwykłe. Nie jest źle. Po prostu dziwnie wystawione. Większość działalności finansowej nie zachowuje się w ten sposób. Płatność się rozlicza, umowa się zawiera, a szczegóły pozostają głównie tam, gdzie ich miejsce. W instytucjach. Pomiędzy zaangażowanymi osobami. Blockchain całkowicie zmienił ten układ. Każdy ruch widoczny, każda transakcja do śledzenia. Przejrzystość rozwiązała prawdziwy problem, jak zaufać systemowi bez centralnej władzy.

Dlaczego infrastruktura prywatności, taka jak NIGHT, może stać się niezbędna w następnej fazie Blockchain

@MidnightNetwork Pamiętam jeden wieczór, kiedy spędziłem więcej czasu przeglądając eksploratora bloków, niż się spodziewałem. Nie było szczególnego powodu. Po prostu ciekawość. Portfele przenoszące środki, znaczniki czasu gromadzące się, całe historie finansowe spokojnie siedzące na publicznej stronie. Na początku wydawało się to imponujące, prawie jak obserwowanie wewnętrznego okablowania systemu finansowego. Ale po pewnym czasie coś w tym zaczęło wydawać się niezwykłe.
Nie jest źle. Po prostu dziwnie wystawione.
Większość działalności finansowej nie zachowuje się w ten sposób. Płatność się rozlicza, umowa się zawiera, a szczegóły pozostają głównie tam, gdzie ich miejsce. W instytucjach. Pomiędzy zaangażowanymi osobami. Blockchain całkowicie zmienił ten układ. Każdy ruch widoczny, każda transakcja do śledzenia. Przejrzystość rozwiązała prawdziwy problem, jak zaufać systemowi bez centralnej władzy.
@MidnightNetwork Zastanawiałem się ostatnio, jak blockchainy radzą sobie z prywatnością. Wczesne systemy mocno kierowały się w stronę przejrzystości. To miało sens na początku - obcy potrzebowali sposobu, aby zaufać wspólnemu rejestrowi. Ale gdy prawdziwa wartość zaczęła przepływać przez te sieci, otwartość zaczęła wydawać się... trochę odkryta. Użyteczna, tak. Wygodna? Nie zawsze. Ten konflikt jest częściowo powodem, dla którego projekty takie jak Midnight, związane z ekosystemem $NIGHT , zaczęły przyciągać moją uwagę. Główna idea opiera się na dowodach zerowej wiedzy. Zamiast ujawniać każdy szczegół transakcji, sieć sprawdza kryptograficzny dowód, że zasady zostały przestrzegane. Wydarzenie można zweryfikować, potwierdzić własność, ale podstawowe dane niekoniecznie trafiają do rejestru. To, co pojawia się w łańcuchu, to głównie dowód, a nie sama aktywność. Sieć weryfikuje dowody i rejestruje, że warunki zostały spełnione. Z zewnątrz nadal zachowuje się jak publiczny rejestr. Pod spodem jednak wiele wrażliwych informacji nigdy nie opuszcza uczestnika, który je wygenerował. Ta możliwość ma znaczenie, jeśli oczekuje się, że blockchainy będą gospodarować bardziej poważną koordynacją finansową. Instytucje rzadko cieszą się z transmitowania strategii lub pozycji w czasie rzeczywistym. Systemy wokół Midnight i $NIGHT wydają się badać tę lukę - przejrzystość dla weryfikacji, prywatność dla wszystkiego innego. Niemniej jednak systemy kryptograficzne mają tendencję do stawania się skomplikowane. A skomplikowane systemy czasami ukrywają kruche krawędzie w miejscach, których ludzie nie zauważają na początku. Więc na razie pomysł NIGHT wydaje się mniej jak skończony projekt, a bardziej jak test: jak daleko sieć może posunąć prywatność, jednocześnie utrzymując wspólny rejestr jako godny zaufania. Czy ta równowaga utrzyma się, gdy użycie wzrośnie, ta część nadal wydaje się niepewna. $NIGHT #night {spot}(NIGHTUSDT)
@MidnightNetwork Zastanawiałem się ostatnio, jak blockchainy radzą sobie z prywatnością. Wczesne systemy mocno kierowały się w stronę przejrzystości. To miało sens na początku - obcy potrzebowali sposobu, aby zaufać wspólnemu rejestrowi. Ale gdy prawdziwa wartość zaczęła przepływać przez te sieci, otwartość zaczęła wydawać się... trochę odkryta. Użyteczna, tak. Wygodna? Nie zawsze.
Ten konflikt jest częściowo powodem, dla którego projekty takie jak Midnight, związane z ekosystemem $NIGHT , zaczęły przyciągać moją uwagę. Główna idea opiera się na dowodach zerowej wiedzy. Zamiast ujawniać każdy szczegół transakcji, sieć sprawdza kryptograficzny dowód, że zasady zostały przestrzegane. Wydarzenie można zweryfikować, potwierdzić własność, ale podstawowe dane niekoniecznie trafiają do rejestru.
To, co pojawia się w łańcuchu, to głównie dowód, a nie sama aktywność. Sieć weryfikuje dowody i rejestruje, że warunki zostały spełnione. Z zewnątrz nadal zachowuje się jak publiczny rejestr. Pod spodem jednak wiele wrażliwych informacji nigdy nie opuszcza uczestnika, który je wygenerował.
Ta możliwość ma znaczenie, jeśli oczekuje się, że blockchainy będą gospodarować bardziej poważną koordynacją finansową. Instytucje rzadko cieszą się z transmitowania strategii lub pozycji w czasie rzeczywistym. Systemy wokół Midnight i $NIGHT wydają się badać tę lukę - przejrzystość dla weryfikacji, prywatność dla wszystkiego innego.
Niemniej jednak systemy kryptograficzne mają tendencję do stawania się skomplikowane. A skomplikowane systemy czasami ukrywają kruche krawędzie w miejscach, których ludzie nie zauważają na początku. Więc na razie pomysł NIGHT wydaje się mniej jak skończony projekt, a bardziej jak test: jak daleko sieć może posunąć prywatność, jednocześnie utrzymując wspólny rejestr jako godny zaufania. Czy ta równowaga utrzyma się, gdy użycie wzrośnie, ta część nadal wydaje się niepewna.
$NIGHT #night
@FabricFND Rzeczy zaczynają wydawać się mniej pewne, gdy maszyny poruszają się między organizacjami. {spot}(ROBOUSDT) Wyobrażam sobie robota dostawczego opuszczającego jedno magazyn, przekazującego paczkę do sieci logistycznej innej firmy, a w końcu wchodzącego w interakcję z infrastrukturą miejską wzdłuż trasy. Każdy krok generuje informacje aktualizujące lokalizację, potwierdzenia zadań, odczyty czujników, ale te zapisy zazwyczaj znajdują się w oddzielnych systemach. Gdy coś pójdzie nie tak, ustalenie, który dziennik odzwierciedla rzeczywistość, może stać się zaskakująco skomplikowane. To tutaj projekty takie jak Fabric Protocol zaczynają wyglądać interesująco. Zamiast trzymać aktywność robota w prywatnych bazach danych, części tych zdarzeń mogą być zapisane w wspólnej księdze. Robot kończy zadanie, a mały weryfikowalny zapis pojawia się w infrastrukturze, którą wiele uczestników może obserwować. Fabric daje również maszynom tożsamości poprzez konta kryptograficzne, umożliwiając robotom interakcję z usługami i składanie dowodów pracy. Niekoniecznie upraszcza to koordynację, ale sugeruje przyszłość, w której autonomiczne maszyny działają w otwartych, weryfikowalnych sieciach cyfrowych, a nie w izolowanych systemach. #ROBO $ROBO
@Fabric Foundation Rzeczy zaczynają wydawać się mniej pewne, gdy maszyny poruszają się między organizacjami.


Wyobrażam sobie robota dostawczego opuszczającego jedno magazyn, przekazującego paczkę do sieci logistycznej innej firmy, a w końcu wchodzącego w interakcję z infrastrukturą miejską wzdłuż trasy. Każdy krok generuje informacje aktualizujące lokalizację, potwierdzenia zadań, odczyty czujników, ale te zapisy zazwyczaj znajdują się w oddzielnych systemach. Gdy coś pójdzie nie tak, ustalenie, który dziennik odzwierciedla rzeczywistość, może stać się zaskakująco skomplikowane.

To tutaj projekty takie jak Fabric Protocol zaczynają wyglądać interesująco. Zamiast trzymać aktywność robota w prywatnych bazach danych, części tych zdarzeń mogą być zapisane w wspólnej księdze. Robot kończy zadanie, a mały weryfikowalny zapis pojawia się w infrastrukturze, którą wiele uczestników może obserwować.
Fabric daje również maszynom tożsamości poprzez konta kryptograficzne, umożliwiając robotom interakcję z usługami i składanie dowodów pracy. Niekoniecznie upraszcza to koordynację, ale sugeruje przyszłość, w której autonomiczne maszyny działają w otwartych, weryfikowalnych sieciach cyfrowych, a nie w izolowanych systemach. #ROBO $ROBO
Weryfikowalne maszyny: Protokół Fabric i problem zaufania w sieciach robotów@FabricFND Jeśli kiedykolwiek oglądałeś robota magazynowego pracującego późno na wieczornej zmianie, wydaje się to prawie rutynowe. Maszyna toczy się wzdłuż alei, podnosi kontener, zrzuca go gdzie indziej, a system cicho odnotowuje, że praca została zakończona. W bazie danych pojawia się linia. Stan magazynowy dostosowuje się. Nikt zbytnio o tym nie myśli. W obrębie jednej firmy ten zapis jest zazwyczaj wystarczający. Ta sama organizacja posiada robota, oprogramowanie, które nim zarządza, oraz bazę danych, która rejestruje, co się wydarzyło. Jeśli później pojawi się błąd, inżynierowie przeglądają historię systemu. Przewijają przez znaczniki czasu, proste oznaczenia pokazujące, kiedy miała miejsce każda akcja i próbują odtworzyć sekwencję. Założenie jest dość proste: zapis jest godny zaufania, ponieważ firma kontroluje system, który go stworzył.

Weryfikowalne maszyny: Protokół Fabric i problem zaufania w sieciach robotów

@Fabric Foundation Jeśli kiedykolwiek oglądałeś robota magazynowego pracującego późno na wieczornej zmianie, wydaje się to prawie rutynowe. Maszyna toczy się wzdłuż alei, podnosi kontener, zrzuca go gdzie indziej, a system cicho odnotowuje, że praca została zakończona. W bazie danych pojawia się linia. Stan magazynowy dostosowuje się. Nikt zbytnio o tym nie myśli.
W obrębie jednej firmy ten zapis jest zazwyczaj wystarczający.
Ta sama organizacja posiada robota, oprogramowanie, które nim zarządza, oraz bazę danych, która rejestruje, co się wydarzyło. Jeśli później pojawi się błąd, inżynierowie przeglądają historię systemu. Przewijają przez znaczniki czasu, proste oznaczenia pokazujące, kiedy miała miejsce każda akcja i próbują odtworzyć sekwencję. Założenie jest dość proste: zapis jest godny zaufania, ponieważ firma kontroluje system, który go stworzył.
@mira_network Ludzie często mówią o AI w kategoriach możliwości. {spot}(MIRAUSDT) Szybsze modele, większe zbiory treningowe, bardziej imponujące wyniki. Ale po pewnym czasie korzystania z tych systemów zaczyna się pojawiać inny problem. Odpowiedzi przychodzą szybko i brzmią przekonująco, ale czasami mała część odpowiedzi nie wytrzymuje bliższego przyjrzenia się. Nie dlatego, że model całkowicie zawiódł. Raczej dlatego, że nic w systemie faktycznie nie sprawdziło twierdzenia. Mira Network wydaje się podchodzić do tej luki inaczej. Sieć nie traktuje odpowiedzi AI jako gotowej części wiedzy. Zamiast tego odpowiedź przechodzi przez proces weryfikacji, w którym tekst jest dzielony na mniejsze stwierdzenia. Te stwierdzenia przemieszczają się przez wiele niezależnych modeli AI, które próbują ocenić, czy twierdzenie się utrzymuje. Co tutaj ma znaczenie, to nie pojedynczy model decydujący o wyniku. Sieć obserwuje, jak różni ewaluatorzy odpowiadają na to samo stwierdzenie. Czasami kilka modeli się zgadza. Czasami nie. Ten wzór zgody i niezgody staje się częścią sygnału. Oczywiście dodanie warstw weryfikacji zmienia system. Rzeczy poruszają się wolniej. Koordynacja staje się trudniejsza. A jeśli kilka modeli ma podobne ślepe punkty, sama zgoda może niewiele dowodzić. Mimo to, Mira sugeruje inny sposób myślenia o niezawodności AI. Zamiast zakładać, że odpowiedzi są poprawne, ponieważ brzmią spójnie, sieć cicho pyta o coś innego najpierw: czy twierdzenie może przetrwać kwestionowanie? $MIRA #Mira
@Mira - Trust Layer of AI Ludzie często mówią o AI w kategoriach możliwości.

Szybsze modele, większe zbiory treningowe, bardziej imponujące wyniki. Ale po pewnym czasie korzystania z tych systemów zaczyna się pojawiać inny problem. Odpowiedzi przychodzą szybko i brzmią przekonująco, ale czasami mała część odpowiedzi nie wytrzymuje bliższego przyjrzenia się. Nie dlatego, że model całkowicie zawiódł. Raczej dlatego, że nic w systemie faktycznie nie sprawdziło twierdzenia.
Mira Network wydaje się podchodzić do tej luki inaczej. Sieć nie traktuje odpowiedzi AI jako gotowej części wiedzy. Zamiast tego odpowiedź przechodzi przez proces weryfikacji, w którym tekst jest dzielony na mniejsze stwierdzenia. Te stwierdzenia przemieszczają się przez wiele niezależnych modeli AI, które próbują ocenić, czy twierdzenie się utrzymuje.
Co tutaj ma znaczenie, to nie pojedynczy model decydujący o wyniku. Sieć obserwuje, jak różni ewaluatorzy odpowiadają na to samo stwierdzenie. Czasami kilka modeli się zgadza. Czasami nie. Ten wzór zgody i niezgody staje się częścią sygnału.
Oczywiście dodanie warstw weryfikacji zmienia system. Rzeczy poruszają się wolniej. Koordynacja staje się trudniejsza. A jeśli kilka modeli ma podobne ślepe punkty, sama zgoda może niewiele dowodzić.
Mimo to, Mira sugeruje inny sposób myślenia o niezawodności AI. Zamiast zakładać, że odpowiedzi są poprawne, ponieważ brzmią spójnie, sieć cicho pyta o coś innego najpierw: czy twierdzenie może przetrwać kwestionowanie?
$MIRA #Mira
Mira Network i pojawiająca się infrastruktura dla weryfikowalnej AIMira Network zaczyna się od dość prostej obserwacji: nowoczesna sztuczna inteligencja produkuje ogromną ilość informacji, ale niezawodność tych informacji często pozostaje niepewna. Każdy, kto spędza czas na pracy z dużymi modelami językowymi, w końcu to zauważa. Odpowiedzi brzmią pewnie, są uporządkowane, często przekonujące. Jednak co jakiś czas pojawia się coś lekko niepokojącego: statystyka, która nie do końca się zgadza, cytat, który nie prowadzi donikąd, wniosek, który wydaje się schludny, ale kruchy. Problem rzadko jest dramatyczny. Jest cichszy niż to, co może być powodem, dla którego się utrzymuje.

Mira Network i pojawiająca się infrastruktura dla weryfikowalnej AI

Mira Network zaczyna się od dość prostej obserwacji: nowoczesna sztuczna inteligencja produkuje ogromną ilość informacji, ale niezawodność tych informacji często pozostaje niepewna. Każdy, kto spędza czas na pracy z dużymi modelami językowymi, w końcu to zauważa. Odpowiedzi brzmią pewnie, są uporządkowane, często przekonujące. Jednak co jakiś czas pojawia się coś lekko niepokojącego: statystyka, która nie do końca się zgadza, cytat, który nie prowadzi donikąd, wniosek, który wydaje się schludny, ale kruchy. Problem rzadko jest dramatyczny. Jest cichszy niż to, co może być powodem, dla którego się utrzymuje.
Kiedy ROBO dołącza do gospodarki: Infrastruktura stojąca za autonomicznymi maszynami@FabricFND Systemy robotyczne w profesjonalnych środowiskach rzadko wyglądają dramatycznie. Na ekranie monitorującym pojawiają się jako ciche ruchy maszyn raportujących aktualizacje lokalizacji, zakończenia zadań, poziomy naładowania baterii. W magazynie flota robotów może poruszać się całą noc, transportując towary między stacjami, podczas gdy operatorzy od czasu do czasu zerkają na pulpity, które potwierdzają, że wszystko nadal działa. Część interesująca nie zawsze dotyczy samych maszyn. To warstwa pod nimi, systemy cicho rejestrujące, co te maszyny zrobiły i czy ktoś może zaufać tym zapisom.

Kiedy ROBO dołącza do gospodarki: Infrastruktura stojąca za autonomicznymi maszynami

@Fabric Foundation Systemy robotyczne w profesjonalnych środowiskach rzadko wyglądają dramatycznie. Na ekranie monitorującym pojawiają się jako ciche ruchy maszyn raportujących aktualizacje lokalizacji, zakończenia zadań, poziomy naładowania baterii. W magazynie flota robotów może poruszać się całą noc, transportując towary między stacjami, podczas gdy operatorzy od czasu do czasu zerkają na pulpity, które potwierdzają, że wszystko nadal działa. Część interesująca nie zawsze dotyczy samych maszyn. To warstwa pod nimi, systemy cicho rejestrujące, co te maszyny zrobiły i czy ktoś może zaufać tym zapisom.
@FabricFND W wielu zautomatyzowanych środowiskach maszyny koordynują poprzez zcentralizowane systemy, które cicho przydzielają zadania i przenoszą dane między nimi. Większość czasu działa to na tyle płynnie, że nikt tego nie zauważa. Ale małe problemy pojawiają się od czasu do czasu. Dwa systemy nie zgadzają się co do czasu. Robot zatrzymuje się, ponieważ czeka na potwierdzenie, które nigdy nie nadchodzi. Nic dramatycznego, tylko przypomnienie, że koordynacja wciąż zależy od kilku zaufanych warstw kontrolnych. Protokół Fabric patrzy na ten problem z innej perspektywy. Zamiast polegać tylko na centralnej orkiestracji, rejestruje działania i obliczenia w publicznym rejestrze, zasadniczo wspólnym dzienniku, w którym zdarzenia są zapisywane z znacznikami czasu pokazującymi, kiedy miały miejsce. Celem nie jest uczynienie robotów mądrzejszymi, ale uproszczenie weryfikacji ich interakcji. Kiedy maszyny działają na podstawie rejestru, który inni mogą sprawdzić, zachowanie zmienia się nieznacznie. Zadania stają się śledzone. Decyzje pozostawiają dowody. Ta przejrzystość może poprawić koordynację, chociaż dodaje również dodatkowe obciążenie, którego ściśle zoptymalizowane systemy mogą nie przyjąć. $ROBO #ROBO {spot}(ROBOUSDT)
@Fabric Foundation W wielu zautomatyzowanych środowiskach maszyny koordynują poprzez zcentralizowane systemy, które cicho przydzielają zadania i przenoszą dane między nimi. Większość czasu działa to na tyle płynnie, że nikt tego nie zauważa. Ale małe problemy pojawiają się od czasu do czasu. Dwa systemy nie zgadzają się co do czasu. Robot zatrzymuje się, ponieważ czeka na potwierdzenie, które nigdy nie nadchodzi. Nic dramatycznego, tylko przypomnienie, że koordynacja wciąż zależy od kilku zaufanych warstw kontrolnych.
Protokół Fabric patrzy na ten problem z innej perspektywy. Zamiast polegać tylko na centralnej orkiestracji, rejestruje działania i obliczenia w publicznym rejestrze, zasadniczo wspólnym dzienniku, w którym zdarzenia są zapisywane z znacznikami czasu pokazującymi, kiedy miały miejsce. Celem nie jest uczynienie robotów mądrzejszymi, ale uproszczenie weryfikacji ich interakcji.
Kiedy maszyny działają na podstawie rejestru, który inni mogą sprawdzić, zachowanie zmienia się nieznacznie. Zadania stają się śledzone. Decyzje pozostawiają dowody. Ta przejrzystość może poprawić koordynację, chociaż dodaje również dodatkowe obciążenie, którego ściśle zoptymalizowane systemy mogą nie przyjąć.
$ROBO #ROBO
Mira i następna faza blockchain: od rozliczeń finansowych do weryfikowalnej wiedzyKiedy po raz pierwszy zacząłem słyszeć, jak ludzie opisują blockchain jako coś, co w końcu mogłoby weryfikować wiedzę, a nie tylko przesuwać pieniądze, zatrzymałem się na chwilę. Nie dlatego, że pomysł brzmiał niemożliwe. Raczej dlatego, że blockchain spędził ponad dekadę na robieniu czegoś znacznie prostszego i robieniu tego w rozsądny sposób. Ustalanie transakcji. Rejestrowanie własności. Upewnianie się, że dwie strony mogą zgodzić się na księgę bez zaufania do centralnego pośrednika. Ta historia była wąska, ale była jasna. Pomysł, że ten sam rodzaj infrastruktury może pewnego dnia pomóc określić, czy sama informacja jest wiarygodna, wydaje się być zupełnie inną kategorią problemu. Przynajmniej na pierwszy rzut oka.

Mira i następna faza blockchain: od rozliczeń finansowych do weryfikowalnej wiedzy

Kiedy po raz pierwszy zacząłem słyszeć, jak ludzie opisują blockchain jako coś, co w końcu mogłoby weryfikować wiedzę, a nie tylko przesuwać pieniądze, zatrzymałem się na chwilę. Nie dlatego, że pomysł brzmiał niemożliwe. Raczej dlatego, że blockchain spędził ponad dekadę na robieniu czegoś znacznie prostszego i robieniu tego w rozsądny sposób.
Ustalanie transakcji. Rejestrowanie własności. Upewnianie się, że dwie strony mogą zgodzić się na księgę bez zaufania do centralnego pośrednika.
Ta historia była wąska, ale była jasna.
Pomysł, że ten sam rodzaj infrastruktury może pewnego dnia pomóc określić, czy sama informacja jest wiarygodna, wydaje się być zupełnie inną kategorią problemu. Przynajmniej na pierwszy rzut oka.
@mira_network Mira podchodzi do niezawodności AI z kierunku, który wydaje się nieco inny niż większość dyskusji na temat dużych modeli. {spot}(MIRAUSDT) Zamiast koncentrować się na uczynieniu jednego systemu mądrzejszym, cicho zadaje inne pytanie: co się dzieje po wygenerowaniu odpowiedzi? To pytanie zaczęło nabierać większego sensu po zauważeniu, jak często wyniki AI mają ton pewności, nawet gdy mały szczegół okazuje się błędny. Nic dramatycznego. Po prostu fakt lekko na swoim miejscu, wystarczająco, by skłonić cię do zatrzymania się i sprawdzenia ponownie. Sieć Mira traktuje odpowiedzi mniej jak gotowe stwierdzenia, a bardziej jak rzeczy, które wciąż wymagają zbadania. Model generuje wynik, ale części tego wyniku przechodzą przez inne modele w systemie. Niektóre twierdzenia wytrzymują, gdy są ponownie analizowane. Inne po prostu znikają. Obserwowanie tego procesu trochę zmienia oczekiwania. Odpowiedź przychodzi z większym tarciem. Ale niesie też poczucie, że ktoś lub coś naprawdę sprawdziło, zanim pozwoliło jej stanąć. #Mira $MIRA
@Mira - Trust Layer of AI Mira podchodzi do niezawodności AI z kierunku, który wydaje się nieco inny niż większość dyskusji na temat dużych modeli.
Zamiast koncentrować się na uczynieniu jednego systemu mądrzejszym, cicho zadaje inne pytanie: co się dzieje po wygenerowaniu odpowiedzi?
To pytanie zaczęło nabierać większego sensu po zauważeniu, jak często wyniki AI mają ton pewności, nawet gdy mały szczegół okazuje się błędny. Nic dramatycznego. Po prostu fakt lekko na swoim miejscu, wystarczająco, by skłonić cię do zatrzymania się i sprawdzenia ponownie.
Sieć Mira traktuje odpowiedzi mniej jak gotowe stwierdzenia, a bardziej jak rzeczy, które wciąż wymagają zbadania. Model generuje wynik, ale części tego wyniku przechodzą przez inne modele w systemie. Niektóre twierdzenia wytrzymują, gdy są ponownie analizowane. Inne po prostu znikają.
Obserwowanie tego procesu trochę zmienia oczekiwania. Odpowiedź przychodzi z większym tarciem. Ale niesie też poczucie, że ktoś lub coś naprawdę sprawdziło, zanim pozwoliło jej stanąć.
#Mira $MIRA
Kiedy roboty zostawiają paragony: Wzrost weryfikowalnych działań w świecie fizycznym@FabricFND Rozmowy o robotyce zazwyczaj krążą wokół inteligencji. Procesory stają się szybsze. Modele stają się ostrzejsze. Czujniki widzą więcej świata. Lista ta pojawia się niemal w każdej dyskusji na temat poprawy maszyn. Po usłyszeniu tego wystarczająco wiele razy, jednak centrum rozmowy zaczyna wydawać się mniej interesujące niż jej krawędzie. Co maszyny właściwie pozostawiają, na przykład. Niedawno oglądałem małego robota magazynowego przenoszącego paczki między rzędami magazynowymi. Nic niezwykłego w ruchu. Podniósł pojemnik, minął filar, skorygował swoją ścieżkę o kilka centymetrów i umieścił pudełko na taśmie transportowej. Ruch był na tyle płynny, że większość ludzi w pomieszczeniu przestała zwracać uwagę po kilku sekundach.

Kiedy roboty zostawiają paragony: Wzrost weryfikowalnych działań w świecie fizycznym

@Fabric Foundation Rozmowy o robotyce zazwyczaj krążą wokół inteligencji. Procesory stają się szybsze. Modele stają się ostrzejsze. Czujniki widzą więcej świata. Lista ta pojawia się niemal w każdej dyskusji na temat poprawy maszyn. Po usłyszeniu tego wystarczająco wiele razy, jednak centrum rozmowy zaczyna wydawać się mniej interesujące niż jej krawędzie.
Co maszyny właściwie pozostawiają, na przykład.
Niedawno oglądałem małego robota magazynowego przenoszącego paczki między rzędami magazynowymi. Nic niezwykłego w ruchu. Podniósł pojemnik, minął filar, skorygował swoją ścieżkę o kilka centymetrów i umieścił pudełko na taśmie transportowej. Ruch był na tyle płynny, że większość ludzi w pomieszczeniu przestała zwracać uwagę po kilku sekundach.
@FabricFND Automatyzacja rozmów zazwyczaj zmierza w kierunku inteligencji, lepszych modeli, szybszego sprzętu, maszyn podejmujących mądrzejsze decyzje. Jednak im więcej myślę o dużych systemach robotycznych, tym mniej jestem przekonany, że sama inteligencja wystarczy do działania systemu. Koordynacja wydaje się być ważniejsza. A koordynacja, co dziwne, zależy od zapisów. To mniej więcej tam, gdzie myślenie wokół Fundacji Fabric zaczyna mieć sens. Fabric nie zaczyna od robota. Zaczyna od infrastruktury wokół pracy robotycznej. Wydaje się, że założenie jest takie, że gdy maszyny działają w sieciach fabryk, systemów logistycznych, flot urządzeń, ktoś potrzebuje wspólnego sposobu na potwierdzenie, co tak naprawdę się wydarzyło. Publiczny rejestr, w prostych słowach, to właśnie to: wspólny dziennik, w którym działania i dane mogą być zapisane w sposób, który wiele uczestników może zweryfikować. Ale te zapisy cicho zmieniają kształt automatyzacji. Gdy działania robotyczne są rejestrowane i weryfikowane, przestają wyglądać jak izolowane zachowania maszyn. Zaczynają przypominać wydarzenia wewnątrz systemu, które są obserwowalne, porównywalne, a czasami nawet odpowiedzialne. Co rodzi ciekawy nacisk projektowy. Weryfikacja poprawia zaufanie, ale także wymusza decyzje dotyczące przejrzystości. Ile aktywności maszyn powinno być rejestrowane? Kto może to sprawdzić? W którym momencie infrastruktura koordynacyjna staje się infrastrukturą nadzoru? Nie sądzę, aby systemy automatyzacji rozwiązały te pytania. Technologia koordynacji przybywa szybko. Zasady dotyczące tego, kto weryfikuje, kto rządzi, kto korzysta, wydają się formować wolniej.$ROBO #ROBO {spot}(ROBOUSDT)
@Fabric Foundation Automatyzacja rozmów zazwyczaj zmierza w kierunku inteligencji, lepszych modeli, szybszego sprzętu, maszyn podejmujących mądrzejsze decyzje. Jednak im więcej myślę o dużych systemach robotycznych, tym mniej jestem przekonany, że sama inteligencja wystarczy do działania systemu. Koordynacja wydaje się być ważniejsza. A koordynacja, co dziwne, zależy od zapisów.
To mniej więcej tam, gdzie myślenie wokół Fundacji Fabric zaczyna mieć sens.
Fabric nie zaczyna od robota. Zaczyna od infrastruktury wokół pracy robotycznej. Wydaje się, że założenie jest takie, że gdy maszyny działają w sieciach fabryk, systemów logistycznych, flot urządzeń, ktoś potrzebuje wspólnego sposobu na potwierdzenie, co tak naprawdę się wydarzyło. Publiczny rejestr, w prostych słowach, to właśnie to: wspólny dziennik, w którym działania i dane mogą być zapisane w sposób, który wiele uczestników może zweryfikować.
Ale te zapisy cicho zmieniają kształt automatyzacji. Gdy działania robotyczne są rejestrowane i weryfikowane, przestają wyglądać jak izolowane zachowania maszyn. Zaczynają przypominać wydarzenia wewnątrz systemu, które są obserwowalne, porównywalne, a czasami nawet odpowiedzialne.
Co rodzi ciekawy nacisk projektowy. Weryfikacja poprawia zaufanie, ale także wymusza decyzje dotyczące przejrzystości. Ile aktywności maszyn powinno być rejestrowane? Kto może to sprawdzić? W którym momencie infrastruktura koordynacyjna staje się infrastrukturą nadzoru?
Nie sądzę, aby systemy automatyzacji rozwiązały te pytania. Technologia koordynacji przybywa szybko. Zasady dotyczące tego, kto weryfikuje, kto rządzi, kto korzysta, wydają się formować wolniej.$ROBO #ROBO
Od nieskończonej produkcji AI do selektywnej pamięci: Mira i dyscyplina weryfikacji@mira_network #Mira $MIRA Pierwszy raz, kiedy naprawdę zwróciłem uwagę na to, jak działają systemy weryfikacji, nie był to dramatyczny przełom techniczny. To był cichszy moment. Obserwowałem model AI, który dostarczał odpowiedź pewną, szczegółową, natychmiastową. Jak większość dzisiejszych wyników AI, przybył z tą znajomą tonacją pewności. A jednak coś w tym wydawało się niedokończone. Niekoniecznie błędne. Po prostu... nieprzetestowane. Ten moment sprawił, że uświadomiłem sobie coś, o czym wcześniej nie myślałem. Systemy AI stają się niezwykle dobre w produkowaniu informacji, ale prawdziwe pytanie brzmi, co się dzieje po pojawieniu się informacji. Kto to sprawdza? Kto potwierdza, że można mu zaufać? A może co ważniejsze, co system robi z tą informacją, gdy już zostanie zweryfikowana?

Od nieskończonej produkcji AI do selektywnej pamięci: Mira i dyscyplina weryfikacji

@Mira - Trust Layer of AI #Mira $MIRA
Pierwszy raz, kiedy naprawdę zwróciłem uwagę na to, jak działają systemy weryfikacji, nie był to dramatyczny przełom techniczny. To był cichszy moment. Obserwowałem model AI, który dostarczał odpowiedź pewną, szczegółową, natychmiastową. Jak większość dzisiejszych wyników AI, przybył z tą znajomą tonacją pewności.
A jednak coś w tym wydawało się niedokończone.
Niekoniecznie błędne. Po prostu... nieprzetestowane.
Ten moment sprawił, że uświadomiłem sobie coś, o czym wcześniej nie myślałem. Systemy AI stają się niezwykle dobre w produkowaniu informacji, ale prawdziwe pytanie brzmi, co się dzieje po pojawieniu się informacji. Kto to sprawdza? Kto potwierdza, że można mu zaufać? A może co ważniejsze, co system robi z tą informacją, gdy już zostanie zweryfikowana?
@mira_network Przez jakiś czas ciągle wracałem do jednej idei stojącej za siecią Mira. Nie dokładnie mechanika, ale założenie, które się pod tym kryje: może weryfikacja powinna nastąpić przed szybkością w systemach AI. To nieco inny punkt wyjścia niż większość narzędzi, których używałem. W praktyce AI zazwyczaj zachowuje się jak maszyna do przewidywania. Zadajesz pytanie, generuje najbardziej prawdopodobną odpowiedź, a interakcja kończy się tam. Większość czasu to w porządku. Mimo to, po dłuższej pracy z tymi systemami, zaczyna pojawiać się mały dyskomfort. Odpowiedzi brzmią pewnie. Ten ton pewności łatwo się przenosi. Zaufanie nie. Mira obsługuje wyniki inaczej. Odpowiedź nie jest traktowana jak ostateczny obiekt. To bardziej jak surowiec. Odpowiedź dzieli się na mniejsze roszczenia. Inne modele przyglądają się tym częściom. Niektóre z nich się zgadzają. Inne się sprzeciwiają. To, co zostaje zapisane, to wynik, który utrzymuje się w tym procesie. Obserwowanie, jak ta idea się rozwija, sprawiło, że zacząłem myśleć o tym, jak ludzie właściwie radzą sobie z informacjami. Rzadko akceptując pierwszą rzecz, którą słyszą. Zazwyczaj sprawdzamy inne źródło. Czasami porównujemy. Okazjonalnie zamienia się to w argument, który trwa dłużej niż się spodziewano. Część interesująca, przynajmniej dla mnie, to nie tylko poprawiona niezawodność. To zmiana w tym, jak kształtuje się zaufanie. Kiedy kilka systemów bierze udział w weryfikacji tego samego roszczenia, odpowiedź zaczyna wydawać się mniej jak przewidywanie, a bardziej jak coś, co zostało wynegocjowane w sieci. Może to tam rzeczy cicho się zmieniają. Systemy AI przestają być silnikami produkującymi odpowiedzi i zaczynają zachowywać się bardziej jak środowiska, w których odpowiedzi są testowane. Nie jestem jeszcze pewien, do czego to ostatecznie prowadzi. Ale sprawia, że idea zweryfikowanych wyników AI wydaje się mniej abstrakcyjna. #Mira $MIRA {spot}(MIRAUSDT)
@Mira - Trust Layer of AI Przez jakiś czas ciągle wracałem do jednej idei stojącej za siecią Mira. Nie dokładnie mechanika, ale założenie, które się pod tym kryje: może weryfikacja powinna nastąpić przed szybkością w systemach AI. To nieco inny punkt wyjścia niż większość narzędzi, których używałem.
W praktyce AI zazwyczaj zachowuje się jak maszyna do przewidywania. Zadajesz pytanie, generuje najbardziej prawdopodobną odpowiedź, a interakcja kończy się tam. Większość czasu to w porządku. Mimo to, po dłuższej pracy z tymi systemami, zaczyna pojawiać się mały dyskomfort. Odpowiedzi brzmią pewnie. Ten ton pewności łatwo się przenosi. Zaufanie nie.
Mira obsługuje wyniki inaczej. Odpowiedź nie jest traktowana jak ostateczny obiekt. To bardziej jak surowiec. Odpowiedź dzieli się na mniejsze roszczenia. Inne modele przyglądają się tym częściom. Niektóre z nich się zgadzają. Inne się sprzeciwiają. To, co zostaje zapisane, to wynik, który utrzymuje się w tym procesie.
Obserwowanie, jak ta idea się rozwija, sprawiło, że zacząłem myśleć o tym, jak ludzie właściwie radzą sobie z informacjami. Rzadko akceptując pierwszą rzecz, którą słyszą. Zazwyczaj sprawdzamy inne źródło. Czasami porównujemy. Okazjonalnie zamienia się to w argument, który trwa dłużej niż się spodziewano.
Część interesująca, przynajmniej dla mnie, to nie tylko poprawiona niezawodność. To zmiana w tym, jak kształtuje się zaufanie. Kiedy kilka systemów bierze udział w weryfikacji tego samego roszczenia, odpowiedź zaczyna wydawać się mniej jak przewidywanie, a bardziej jak coś, co zostało wynegocjowane w sieci.
Może to tam rzeczy cicho się zmieniają. Systemy AI przestają być silnikami produkującymi odpowiedzi i zaczynają zachowywać się bardziej jak środowiska, w których odpowiedzi są testowane. Nie jestem jeszcze pewien, do czego to ostatecznie prowadzi. Ale sprawia, że idea zweryfikowanych wyników AI wydaje się mniej abstrakcyjna.
#Mira $MIRA
Od inteligencji do infrastruktury: Jaki problem rozwiązuje protokół Fabric w robotyce?@FabricFND Ludzie często mówią o robotyce, jakby centralnym wyzwaniem była inteligencja. Buduj lepsze modele AI, poprawiaj systemy percepcyjne, daj maszynom silniejsze ramy decyzyjne, a w końcu koordynacja nastąpi. To powszechne założenie. Nie jestem całkowicie przekonany, że inteligencja jest prawdziwym wąskim gardłem. Spędź trochę czasu, patrząc na to, jak systemy robotyczne faktycznie działają, a coś innego zaczyna się wyróżniać. Same maszyny stają się coraz mądrzejsze. Czujniki się poprawiają. Modele się poprawiają. Autonomia powoli się rozwija. Jednak gdy te systemy zaczynają interagować poza kontrolowanymi środowiskami, tarcie nie pochodzi z braku inteligencji.

Od inteligencji do infrastruktury: Jaki problem rozwiązuje protokół Fabric w robotyce?

@Fabric Foundation Ludzie często mówią o robotyce, jakby centralnym wyzwaniem była inteligencja. Buduj lepsze modele AI, poprawiaj systemy percepcyjne, daj maszynom silniejsze ramy decyzyjne, a w końcu koordynacja nastąpi. To powszechne założenie.
Nie jestem całkowicie przekonany, że inteligencja jest prawdziwym wąskim gardłem.
Spędź trochę czasu, patrząc na to, jak systemy robotyczne faktycznie działają, a coś innego zaczyna się wyróżniać. Same maszyny stają się coraz mądrzejsze. Czujniki się poprawiają. Modele się poprawiają. Autonomia powoli się rozwija. Jednak gdy te systemy zaczynają interagować poza kontrolowanymi środowiskami, tarcie nie pochodzi z braku inteligencji.
@FabricFND Na chwilę system wyglądał dobrze. Mały zespół autonomicznych agentów koordynujących rutynę logistyczną wewnątrz symulacji ruchu robotów, dzielących aktualizacje stanu, rodzaj tła koordynacji, który po pewnym czasie przestaje być zauważalny. Potem jeden z agentów się zatrzymał. Podjął próbę czegoś. Cofnął to. Poczekał kilka sekund. Spróbował ponownie. Ta przerwa pozostała ze mną dłużej niż sama akcja. Większość rozmów na temat robotyki ostatecznie wraca do inteligencji, lepszych modeli, szybszych pętli, maszyn rozumujących bardziej niezależnie. Użyteczny postęp, oczywiście. Ale obserwowanie kilku agentów dzielących tę samą przestrzeń operacyjną zaczyna ujawniać inny punkt nacisku. Nie myślenie. Przypominanie sobie, co już się wydarzyło. W środowisku ROBO Fabric akcja nie pozostaje w prywatnym dzienniku systemowym. Jest zapisywana gdzieś wspólnie. Księga. Wpisy z znacznikami czasowymi, przypisana weryfikacja, widoczne w całej sieci. Wspólny rejestr operacyjny, który maszyny mogą sprawdzić przed ponownym działaniem. Zachowanie nieco się zmienia, gdy taki wspólny rejestr istnieje. Agenci zwalniają. Sprawdzają dziennik. Czasami czekają. Jest tam tarcie. Rejestrowanie działań w rozproszonym rejestrze dodaje opóźnień, a rozproszone systemy rzadko pozostają przewidywalne, gdy skala się pojawia. Rzeczy zazwyczaj zaczynają się zmieniać, gdy liczba agentów przestaje być mała. To jest część, którą nadal obserwuję. #ROBO $ROBO {spot}(ROBOUSDT)
@Fabric Foundation Na chwilę system wyglądał dobrze. Mały zespół autonomicznych agentów koordynujących rutynę logistyczną wewnątrz symulacji ruchu robotów, dzielących aktualizacje stanu, rodzaj tła koordynacji, który po pewnym czasie przestaje być zauważalny. Potem jeden z agentów się zatrzymał. Podjął próbę czegoś. Cofnął to. Poczekał kilka sekund. Spróbował ponownie.
Ta przerwa pozostała ze mną dłużej niż sama akcja.
Większość rozmów na temat robotyki ostatecznie wraca do inteligencji, lepszych modeli, szybszych pętli, maszyn rozumujących bardziej niezależnie. Użyteczny postęp, oczywiście. Ale obserwowanie kilku agentów dzielących tę samą przestrzeń operacyjną zaczyna ujawniać inny punkt nacisku. Nie myślenie. Przypominanie sobie, co już się wydarzyło.
W środowisku ROBO Fabric akcja nie pozostaje w prywatnym dzienniku systemowym. Jest zapisywana gdzieś wspólnie. Księga. Wpisy z znacznikami czasowymi, przypisana weryfikacja, widoczne w całej sieci. Wspólny rejestr operacyjny, który maszyny mogą sprawdzić przed ponownym działaniem.
Zachowanie nieco się zmienia, gdy taki wspólny rejestr istnieje. Agenci zwalniają. Sprawdzają dziennik. Czasami czekają.
Jest tam tarcie. Rejestrowanie działań w rozproszonym rejestrze dodaje opóźnień, a rozproszone systemy rzadko pozostają przewidywalne, gdy skala się pojawia.
Rzeczy zazwyczaj zaczynają się zmieniać, gdy liczba agentów przestaje być mała. To jest część, którą nadal obserwuję.
#ROBO $ROBO
Mira i epistemologia maszyn@mira_network Pierwszą rzeczą, która mnie niepokoiła w nowoczesnych systemach AI, nie były ich błędy. Ludzie popełniają błędy nieustannie. Ta część wydawała się normalna. To, co wydawało się dziwniejsze, to ton pewności, który te systemy często noszą. Model może produkować odpowiedź, która brzmi strukturalnie, ostrożnie, a nawet autorytatywnie, jednocześnie cicho łącząc prawdziwe informacje z czymś wymyślonym. Maszyna tak naprawdę nie kłamie. To bardziej jak.....uzupełnianie luk. I robienie tego z pewnością. Przez chwilę przemysł wydawał się komfortowy, traktując to jako tymczasową fazę. Większe modele, lepsze pętle treningowe, czystsze zbiory danych. Oczekiwanie było dość intuicyjne: poprawić inteligencję, a niezawodność powinna w końcu podążyć. Ta logika brzmi rozsądnie, gdy słyszysz ją szybko. Ale im więcej czasu spędzasz, obserwując, jak te systemy zachowują się w praktyce, tym mniej oczywiste wydaje się to połączenie.

Mira i epistemologia maszyn

@Mira - Trust Layer of AI Pierwszą rzeczą, która mnie niepokoiła w nowoczesnych systemach AI, nie były ich błędy. Ludzie popełniają błędy nieustannie. Ta część wydawała się normalna. To, co wydawało się dziwniejsze, to ton pewności, który te systemy często noszą. Model może produkować odpowiedź, która brzmi strukturalnie, ostrożnie, a nawet autorytatywnie, jednocześnie cicho łącząc prawdziwe informacje z czymś wymyślonym.
Maszyna tak naprawdę nie kłamie. To bardziej jak.....uzupełnianie luk. I robienie tego z pewnością.
Przez chwilę przemysł wydawał się komfortowy, traktując to jako tymczasową fazę. Większe modele, lepsze pętle treningowe, czystsze zbiory danych. Oczekiwanie było dość intuicyjne: poprawić inteligencję, a niezawodność powinna w końcu podążyć. Ta logika brzmi rozsądnie, gdy słyszysz ją szybko. Ale im więcej czasu spędzasz, obserwując, jak te systemy zachowują się w praktyce, tym mniej oczywiste wydaje się to połączenie.
@mira_network AI Bez Weryfikacji To Tylko Prognoza Mira Chce To Zmienić {spot}(MIRAUSDT) Podczas czytania o Sieci Mira, mały wybór projektowy przykuł moją uwagę. Nic dramatycznego. Po prostu sposób, w jaki system traktuje odpowiedź AI. Większość narzędzi po prostu produkuje odpowiedź i przechodzi dalej. Pytasz o coś, model przewiduje najbardziej prawdopodobne słowa, a proces kończy się na tym. Wygląda to gładko z zewnątrz. Ale prognoza i prawda to nie to samo. Myślę, że większość ludzi dostrzegła to do tej pory. Co Mira wydaje się robić inaczej to spowolnienie momentu. Zamiast akceptować wynik jako jedną ukończoną całość, sieć dzieli go na mniejsze stwierdzenia, które można sprawdzić niezależnie. Te roszczenia przechodzą przez rozproszony zestaw modeli, które oceniają je jeden po drugim. Rejestr tego procesu jest zapisywany w księdze blockchain. Księga, w prostych słowach, to po prostu wspólny dziennik. Każde działanie otrzymuje znacznik czasu i jest przechowywane publicznie, aby każdy mógł zobaczyć, co się wydarzyło i kiedy. Ten szczegół ma większe znaczenie, niż na pierwszy rzut oka się wydaje. Gdy kroki weryfikacji stają się widoczne i trwałe, odpowiedzialność zmienia kształt. Uczestnicy wiedzą, że ich decyzje są rejestrowane. Zachęty zaczynają przesuwać się od pewnych przypuszczeń w stronę ostrożnej weryfikacji. Oczywiście, to rodzi kolejne pytanie. Systemy, które priorytetowo traktują weryfikację, mogą stać się wolniejsze lub droższe. Wiarygodność rzadko przychodzi za darmo. Niemniej jednak, uważam, że projekt jest interesujący. Jeśli inteligencja wciąż rozprzestrzenia się w rzeczywistych systemach finansowych, logistycznych, autonomicznych maszyn, to prawdziwym wyzwaniem mogą być nie mądrzejsze modele. Może to być budowanie struktur, w których ich odpowiedzi mogą naprawdę być zaufane. $MIRA #Mira
@Mira - Trust Layer of AI AI Bez Weryfikacji To Tylko Prognoza Mira Chce To Zmienić


Podczas czytania o Sieci Mira, mały wybór projektowy przykuł moją uwagę. Nic dramatycznego. Po prostu sposób, w jaki system traktuje odpowiedź AI.
Większość narzędzi po prostu produkuje odpowiedź i przechodzi dalej. Pytasz o coś, model przewiduje najbardziej prawdopodobne słowa, a proces kończy się na tym. Wygląda to gładko z zewnątrz. Ale prognoza i prawda to nie to samo. Myślę, że większość ludzi dostrzegła to do tej pory.
Co Mira wydaje się robić inaczej to spowolnienie momentu.
Zamiast akceptować wynik jako jedną ukończoną całość, sieć dzieli go na mniejsze stwierdzenia, które można sprawdzić niezależnie. Te roszczenia przechodzą przez rozproszony zestaw modeli, które oceniają je jeden po drugim. Rejestr tego procesu jest zapisywany w księdze blockchain. Księga, w prostych słowach, to po prostu wspólny dziennik. Każde działanie otrzymuje znacznik czasu i jest przechowywane publicznie, aby każdy mógł zobaczyć, co się wydarzyło i kiedy.
Ten szczegół ma większe znaczenie, niż na pierwszy rzut oka się wydaje.
Gdy kroki weryfikacji stają się widoczne i trwałe, odpowiedzialność zmienia kształt. Uczestnicy wiedzą, że ich decyzje są rejestrowane. Zachęty zaczynają przesuwać się od pewnych przypuszczeń w stronę ostrożnej weryfikacji.
Oczywiście, to rodzi kolejne pytanie. Systemy, które priorytetowo traktują weryfikację, mogą stać się wolniejsze lub droższe. Wiarygodność rzadko przychodzi za darmo.
Niemniej jednak, uważam, że projekt jest interesujący. Jeśli inteligencja wciąż rozprzestrzenia się w rzeczywistych systemach finansowych, logistycznych, autonomicznych maszyn, to prawdziwym wyzwaniem mogą być nie mądrzejsze modele.
Może to być budowanie struktur, w których ich odpowiedzi mogą naprawdę być zaufane.
$MIRA #Mira
@FabricFND Większość ludzi nie myśli zbyt wiele o koordynacji, dopóki coś cicho nie przestaje działać. Sygnalizator świetlny zatrzymuje się i nagle wszyscy się wahają. Dwóch kierowców dostawczych pojawia się pod tym samym adresem w ciągu kilku minut od siebie. Lub system kalendarza nalega, że powinieneś być w dwóch miejscach jednocześnie. Żadne z tych niepowodzeń nie wynika z braku inteligencji. Zwykle pochodzą one z systemów, które nigdy nie były doskonale zsynchronizowane w pierwszej kolejności. Coś takiego pojawia się również w robotyce, chociaż jest to mniej widoczne. Dużo wysiłku inżynieryjnego wkłada się w budowanie mądrzejszych maszyn, lepszych modeli percepcji, szybszych systemów decyzyjnych, ulepszonej nawigacji. Ważna praca, oczywiście. Nadal, gdy wiele autonomicznych systemów zaczyna interakcję w tym samym środowisku, sama inteligencja przestaje być głównym ograniczeniem. Koordynacja staje się trudniejszym problemem. Infrastruktura ROBO Fundacji Fabric wchodzi w tę napiętą sytuację. Idea nie polega tylko na tym, aby uczynić roboty bardziej zdolnymi, ale dać im wspólny zapis tego, co naprawdę się wydarzyło. Publiczny rejestr, mówiąc prosto, działa jak rozproszony dziennik. Wydarzenia są w nim zapisywane z znacznikami czasowymi, cyfrowymi markerami pokazującymi, kiedy coś miało miejsce. Gdy maszyny odwołują się do tego samego dziennika, ich decyzje mogą opierać się na wspólnej historii, a nie fragmentowanych danych lokalnych. Weryfikowalne obliczenia posuwają tę ideę o krok dalej. Zamiast ufać, że system poprawnie wykonał obliczenia, inni uczestnicy mogą sprawdzić dowód, że praca została wykonana zgodnie z deklaracją. Teoretycznie brzmi to schludnie. W praktyce zmienia to sposób, w jaki odpowiedzialność przemieszcza się przez sieć maszyn. Nadal rejestrowanie zachowań maszyn na wspólnej infrastrukturze rodzi własne pytania. Przejrzystość może wzmacniać odpowiedzialność, ale także naraża projekt systemu na kompromisy dotyczące kontroli, prywatności i zarządzania, które robotyka jeszcze w pełni nie przepracowała.$ROBO #ROBO {spot}(ROBOUSDT)
@Fabric Foundation Większość ludzi nie myśli zbyt wiele o koordynacji, dopóki coś cicho nie przestaje działać. Sygnalizator świetlny zatrzymuje się i nagle wszyscy się wahają. Dwóch kierowców dostawczych pojawia się pod tym samym adresem w ciągu kilku minut od siebie. Lub system kalendarza nalega, że powinieneś być w dwóch miejscach jednocześnie. Żadne z tych niepowodzeń nie wynika z braku inteligencji. Zwykle pochodzą one z systemów, które nigdy nie były doskonale zsynchronizowane w pierwszej kolejności.
Coś takiego pojawia się również w robotyce, chociaż jest to mniej widoczne. Dużo wysiłku inżynieryjnego wkłada się w budowanie mądrzejszych maszyn, lepszych modeli percepcji, szybszych systemów decyzyjnych, ulepszonej nawigacji. Ważna praca, oczywiście. Nadal, gdy wiele autonomicznych systemów zaczyna interakcję w tym samym środowisku, sama inteligencja przestaje być głównym ograniczeniem. Koordynacja staje się trudniejszym problemem.
Infrastruktura ROBO Fundacji Fabric wchodzi w tę napiętą sytuację. Idea nie polega tylko na tym, aby uczynić roboty bardziej zdolnymi, ale dać im wspólny zapis tego, co naprawdę się wydarzyło. Publiczny rejestr, mówiąc prosto, działa jak rozproszony dziennik. Wydarzenia są w nim zapisywane z znacznikami czasowymi, cyfrowymi markerami pokazującymi, kiedy coś miało miejsce. Gdy maszyny odwołują się do tego samego dziennika, ich decyzje mogą opierać się na wspólnej historii, a nie fragmentowanych danych lokalnych.
Weryfikowalne obliczenia posuwają tę ideę o krok dalej. Zamiast ufać, że system poprawnie wykonał obliczenia, inni uczestnicy mogą sprawdzić dowód, że praca została wykonana zgodnie z deklaracją. Teoretycznie brzmi to schludnie. W praktyce zmienia to sposób, w jaki odpowiedzialność przemieszcza się przez sieć maszyn.
Nadal rejestrowanie zachowań maszyn na wspólnej infrastrukturze rodzi własne pytania. Przejrzystość może wzmacniać odpowiedzialność, ale także naraża projekt systemu na kompromisy dotyczące kontroli, prywatności i zarządzania, które robotyka jeszcze w pełni nie przepracowała.$ROBO #ROBO
Zaleta Robota: Kiedy Inteligencja Robotyczna Staje się Weryfikowalną InfrastrukturąKilka miesięcy temu obserwowałem małego robota sprzątającego w centrum handlowym, który zwolnił przed tymczasową barierą. Ktoś wcześniej tego samego ranka przestawił stojak z wyświetlaczem i zwykła trasa robota już nie działała. Zatrzymał się na dłużej, niż się spodziewałem. Na tyle długo, że przez chwilę zastanawiałem się, czy system się zatrzymał. Następnie lekko się przesunął, ponownie zeskanował i zmienił trasę wokół przeszkody. Większość ludzi przechodzących obok prawdopodobnie nie zauważyła tego momentu. Było cicho, prawie bez wyrazu. Ale obserwowanie, jak maszyna dostosowuje swoje zachowanie w ten sposób, ujawnia dziwny szczegół dotyczący systemów robotycznych. Każda mała korekta, każda wahanie, każda nowa ścieżka to forma uczenia się.

Zaleta Robota: Kiedy Inteligencja Robotyczna Staje się Weryfikowalną Infrastrukturą

Kilka miesięcy temu obserwowałem małego robota sprzątającego w centrum handlowym, który zwolnił przed tymczasową barierą. Ktoś wcześniej tego samego ranka przestawił stojak z wyświetlaczem i zwykła trasa robota już nie działała. Zatrzymał się na dłużej, niż się spodziewałem. Na tyle długo, że przez chwilę zastanawiałem się, czy system się zatrzymał.
Następnie lekko się przesunął, ponownie zeskanował i zmienił trasę wokół przeszkody.
Większość ludzi przechodzących obok prawdopodobnie nie zauważyła tego momentu. Było cicho, prawie bez wyrazu. Ale obserwowanie, jak maszyna dostosowuje swoje zachowanie w ten sposób, ujawnia dziwny szczegół dotyczący systemów robotycznych. Każda mała korekta, każda wahanie, każda nowa ścieżka to forma uczenia się.
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy