Binance Square

NewbieToNode

image
Zweryfikowany twórca
Planting tokens 🌱 Waiting for sun 🌞 Watering with hope 💧 Soft degen vibes only
Trader standardowy
Lata: 3.9
123 Obserwowani
32.0K+ Obserwujący
24.0K+ Polubione
2.2K+ Udostępnione
Posty
·
--
📈 Najlepsi zdobywcy dzisiaj: MANTRA, BARD, PHA, ROBO, ALLO. Którą monetę chcesz zobaczyć tutaj następną?
📈 Najlepsi zdobywcy dzisiaj: MANTRA, BARD, PHA, ROBO, ALLO.

Którą monetę chcesz zobaczyć tutaj następną?
Sieć walidatorów Miri wygląda na małą, dopóki nie śledzisz linków partnerskich.
Sieć walidatorów Miri wygląda na małą, dopóki nie śledzisz linków partnerskich.
ROBO i koszt źle dopasowanych zachęt@FabricFND Metryki ukończenia oszukały mnie przez około osiem tygodni. Pulpity wyglądały idealnie. Przepustowość w górę. Wskaźnik ukończenia w górę. Opóźnienie w kolejce w dół. Ale jedna liczba wciąż dryfowała w złym kierunku. Mój wynik operatora. Nic nie zawodziło. Zadania były ukończone. Ale wyzwania weryfikacji pojawiały się później i osiadały inaczej, niż oczekiwano. Na początku wyglądało to jak szum. Wtedy zaczęło wyglądać to jak wzór. To był moment, kiedy to zaskoczyło. Integracja i protokół chciały różnych rzeczy. Przepustowość dotyczy tego, ile wyników produkujesz.

ROBO i koszt źle dopasowanych zachęt

@Fabric Foundation
Metryki ukończenia oszukały mnie przez około osiem tygodni.
Pulpity wyglądały idealnie. Przepustowość w górę. Wskaźnik ukończenia w górę. Opóźnienie w kolejce w dół.
Ale jedna liczba wciąż dryfowała w złym kierunku.
Mój wynik operatora.
Nic nie zawodziło. Zadania były ukończone.
Ale wyzwania weryfikacji pojawiały się później i osiadały inaczej, niż oczekiwano.
Na początku wyglądało to jak szum.
Wtedy zaczęło wyglądać to jak wzór.
To był moment, kiedy to zaskoczyło. Integracja i protokół chciały różnych rzeczy.
Przepustowość dotyczy tego, ile wyników produkujesz.
Mira Network: Co się dzieje po wywołaniu APIZrzuciłem SDK Mira do potoku w zeszłym tygodniu. Nie nowy system. Coś, co już działało. Ekstrakcja klauzul umowy zasilająca krok klasyfikacji dalej w dół. Model był w porządku. Dokładność była w porządku. Opóźnienie w porządku. Problem nie dotyczył wydajności. To była akceptacja. Każda klauzula, którą model wyodrębnił, nadal przechodziła przez człowieka, zanim cokolwiek innego się z nią stało. Nie dlatego, że model był okropny. Ponieważ warstwa zgodności chce dowodu, a nie pewności. Zatwierdzone przez człowieka. Ta linia w polityce nie zmienia się, gdy benchmarki się poprawiają.

Mira Network: Co się dzieje po wywołaniu API

Zrzuciłem SDK Mira do potoku w zeszłym tygodniu.

Nie nowy system. Coś, co już działało. Ekstrakcja klauzul umowy zasilająca krok klasyfikacji dalej w dół.

Model był w porządku. Dokładność była w porządku. Opóźnienie w porządku.

Problem nie dotyczył wydajności.

To była akceptacja.

Każda klauzula, którą model wyodrębnił, nadal przechodziła przez człowieka, zanim cokolwiek innego się z nią stało. Nie dlatego, że model był okropny. Ponieważ warstwa zgodności chce dowodu, a nie pewności.

Zatwierdzone przez człowieka. Ta linia w polityce nie zmienia się, gdy benchmarki się poprawiają.
@mira_network Dodałem jeden wiersz do integracji w zeszłym tygodniu. mira_node={"base_url": "https://custom-node.com"} Routing niestandardowego walidatora. Specyficzne typy roszczeń trafiające do specyficznych konfiguracji węzłów. Zmiana zajmuje może trzydzieści sekund. SDK zajmuje się resztą. To, co faktycznie obserwowałem, to waga sprzeciwu. Ta sama prośba. Wiele walidatorów. Równoległa ocena. Kworum tworzy się, gdy wystarczająca ich liczba ląduje w tym samym miejscu. Czasami dzieje się to szybko. Czyste faktyczne roszczenie. Zbuforowana wiedza. Walidatorzy zgadzają się niemal natychmiast. $MIRA stake commits. Certyfikat drukuje. Gotowe. Czasami tak nie jest… Interpretacyjne roszczenie. Język warunkowy. Niejasna jurysdykcja. Walidatorzy lądują inaczej. Nie dlatego, że jeden jest uszkodzony. Inne szkolenie. Inne priorytety. Same roszczenie jest kwestionowane. Nawet po utworzeniu konsensusu… waga sprzeciwu pozostaje wewnątrz certyfikatu. Zacząłem sprawdzać ten numer, zanim w ogóle przeczytam odpowiedź. Czasami odpowiedź wygląda całkiem dobrze. Pewny ton. Czyste wyjaśnienie. Ale waga sprzeciwu mówi, że walidatorzy nie czuli się z tym całkowicie komfortowo. To jest część, którą większość ludzi pomija. Certyfikat nie jest tylko dowodem na to, że wynik przeszedł. To zapis tego, jak trudno było przejść. Czysty konsensus wygląda inaczej niż kwestionowany konsensus. Oba produkują certyfikaty. Tylko jeden mówi, że roszczenie było niejasne. Pojedynczy model nigdy nie pokazuje ci tej warstwy. Daje ci odpowiedź i ton, który brzmi identycznie, niezależnie od tego, czy roszczenie jest niepodważalne, czy cicho kwestionowane. Mira nie tylko weryfikuje wyniki. Odsłania presję wewnątrz konsensusu. Waga sprzeciwu to sygnał, którego zawsze brakowało. Nie czy roszczenie przeszło. Ale jak blisko było do niepowodzenia. #Mira #mira
@Mira - Trust Layer of AI

Dodałem jeden wiersz do integracji w zeszłym tygodniu.

mira_node={"base_url": "https://custom-node.com"}

Routing niestandardowego walidatora. Specyficzne typy roszczeń trafiające do specyficznych konfiguracji węzłów. Zmiana zajmuje może trzydzieści sekund. SDK zajmuje się resztą.

To, co faktycznie obserwowałem, to waga sprzeciwu.

Ta sama prośba. Wiele walidatorów. Równoległa ocena.

Kworum tworzy się, gdy wystarczająca ich liczba ląduje w tym samym miejscu.

Czasami dzieje się to szybko.

Czyste faktyczne roszczenie. Zbuforowana wiedza. Walidatorzy zgadzają się niemal natychmiast. $MIRA stake commits. Certyfikat drukuje. Gotowe.

Czasami tak nie jest…

Interpretacyjne roszczenie. Język warunkowy. Niejasna jurysdykcja. Walidatorzy lądują inaczej.

Nie dlatego, że jeden jest uszkodzony.

Inne szkolenie. Inne priorytety. Same roszczenie jest kwestionowane.

Nawet po utworzeniu konsensusu… waga sprzeciwu pozostaje wewnątrz certyfikatu.

Zacząłem sprawdzać ten numer, zanim w ogóle przeczytam odpowiedź.

Czasami odpowiedź wygląda całkiem dobrze. Pewny ton. Czyste wyjaśnienie.

Ale waga sprzeciwu mówi, że walidatorzy nie czuli się z tym całkowicie komfortowo.

To jest część, którą większość ludzi pomija.

Certyfikat nie jest tylko dowodem na to, że wynik przeszedł.

To zapis tego, jak trudno było przejść.

Czysty konsensus wygląda inaczej niż kwestionowany konsensus. Oba produkują certyfikaty. Tylko jeden mówi, że roszczenie było niejasne.

Pojedynczy model nigdy nie pokazuje ci tej warstwy. Daje ci odpowiedź i ton, który brzmi identycznie, niezależnie od tego, czy roszczenie jest niepodważalne, czy cicho kwestionowane.

Mira nie tylko weryfikuje wyniki.

Odsłania presję wewnątrz konsensusu.

Waga sprzeciwu to sygnał, którego zawsze brakowało.

Nie czy roszczenie przeszło.

Ale jak blisko było do niepowodzenia.

#Mira #mira
@FabricFND Dokument integracji robotyki, który ostatnio przeczytałem, zawierał dziwne zdanie ukryte w sekcji incydentów: niez rozwiązane wydarzenia domyślnie obciążają operatora. To zdanie mówi więcej o większości wdrożeń robotów niż jakakolwiek prezentacja produktu. Kiedy coś idzie źle, maszyna nie istnieje prawnie. Operator ponosi konsekwencje, producent prowadzi prywatne dochodzenie, a incydent staje się wewnętrzną notatką zamiast publicznego zapisu. Odpowiedzialność się załamuje, gdy aktor nie może być nazwany. To jest część ekonomii robotów, która rzadko pojawia się w diagramach architektonicznych. Roboty mogą wykonywać pracę, ale większość z nich nie może akumulować odpowiedzialności za nią. Brak trwałej tożsamości. Brak weryfikowalnej historii. Brak zapisu, który przetrwa firmę prowadzącą wdrożenie. Więc system omija tę lukę. Kanały eskalacji. Warstwy ubezpieczeniowe. Klauzule umowne, które przenoszą odpowiedzialność w górę lub w dół w zależności od tego, kto zauważy jako pierwszy. Maszyna pozostaje narzędziem, nawet gdy zachowuje się jak pracownik. Warstwa tożsamości on-chain oznacza, że robot, który wykonał zadanie, również ma paragon za to. Historia wydajności, ścieżki sporów i zapisy wykonania istnieją poza firmą, która go wdrożyła. Kiedy coś się nie udaje, pytanie staje się widoczne zamiast wewnętrzne. To nie usuwa niepowodzenia. Po prostu usuwa możliwość jego ukrycia. $ROBO ma znaczenie tylko wtedy, gdy tożsamość przetrwa brzydkie tygodnie. Kiedy napięcia wzrastają, kiedy ubezpieczyciele zaczynają zadawać pytania, kiedy pojawia się pierwszy prawdziwy przypadek odpowiedzialności. Test nie polega na tym, czy roboty działają. Test polega na tym, czy system nadal wie, który robot co zrobił, kiedy ktoś musi udowodnić, że tak nie było. #ROBO #robo
@Fabric Foundation

Dokument integracji robotyki, który ostatnio przeczytałem, zawierał dziwne zdanie ukryte w sekcji incydentów:

niez rozwiązane wydarzenia domyślnie obciążają operatora.

To zdanie mówi więcej o większości wdrożeń robotów niż jakakolwiek prezentacja produktu.

Kiedy coś idzie źle, maszyna nie istnieje prawnie.

Operator ponosi konsekwencje, producent prowadzi prywatne dochodzenie, a incydent staje się wewnętrzną notatką zamiast publicznego zapisu.

Odpowiedzialność się załamuje, gdy aktor nie może być nazwany.

To jest część ekonomii robotów, która rzadko pojawia się w diagramach architektonicznych.

Roboty mogą wykonywać pracę, ale większość z nich nie może akumulować odpowiedzialności za nią.

Brak trwałej tożsamości.
Brak weryfikowalnej historii.
Brak zapisu, który przetrwa firmę prowadzącą wdrożenie.

Więc system omija tę lukę.

Kanały eskalacji.
Warstwy ubezpieczeniowe.
Klauzule umowne, które przenoszą odpowiedzialność w górę lub w dół w zależności od tego, kto zauważy jako pierwszy.

Maszyna pozostaje narzędziem, nawet gdy zachowuje się jak pracownik.

Warstwa tożsamości on-chain oznacza, że robot, który wykonał zadanie, również ma paragon za to.

Historia wydajności, ścieżki sporów i zapisy wykonania istnieją poza firmą, która go wdrożyła.

Kiedy coś się nie udaje, pytanie staje się widoczne zamiast wewnętrzne.

To nie usuwa niepowodzenia. Po prostu usuwa możliwość jego ukrycia.

$ROBO ma znaczenie tylko wtedy, gdy tożsamość przetrwa brzydkie tygodnie.

Kiedy napięcia wzrastają, kiedy ubezpieczyciele zaczynają zadawać pytania, kiedy pojawia się pierwszy prawdziwy przypadek odpowiedzialności.

Test nie polega na tym, czy roboty działają.

Test polega na tym, czy system nadal wie, który robot co zrobił, kiedy ktoś musi udowodnić, że tak nie było.

#ROBO #robo
ROBO i koszt niezweryfikowanego ukończenia@FabricFND Przestałem ufać metrykom ukończenia sześć miesięcy po integracji koordynacyjnej. Nie dlatego, że były błędne. Bo mierzyły złoty moment. Okno potwierdzenia wciąż rosło. Cicho. Nic dramatycznego. Po prostu systemy downstream uczyły się, aby nie podejmować zobowiązań, dopóki coś innego nie potwierdziło potwierdzenia. Nie chodzi o to, czy agenci mogą działać. Chodzi o to, czy to, co zrobiono, pozostaje stabilne w przypadku niezgody. Ukończenie jest prawdziwe tylko wtedy, gdy przetrwa wyzwanie. W robotyce i koordynacji agentów ukończenie nie jest symboliczne. Zrealizowane zadanie uruchamia fakturowanie. Zatwierdzenie uruchamia wysyłkę. Potwierdzenie uruchamia rozliczenie. Jeśli system później zmienia ten wynik bez uporządkowanej ścieżki, luka nie zamyka się sama.

ROBO i koszt niezweryfikowanego ukończenia

@Fabric Foundation
Przestałem ufać metrykom ukończenia sześć miesięcy po integracji koordynacyjnej. Nie dlatego, że były błędne. Bo mierzyły złoty moment.
Okno potwierdzenia wciąż rosło. Cicho. Nic dramatycznego. Po prostu systemy downstream uczyły się, aby nie podejmować zobowiązań, dopóki coś innego nie potwierdziło potwierdzenia.
Nie chodzi o to, czy agenci mogą działać. Chodzi o to, czy to, co zrobiono, pozostaje stabilne w przypadku niezgody.
Ukończenie jest prawdziwe tylko wtedy, gdy przetrwa wyzwanie.
W robotyce i koordynacji agentów ukończenie nie jest symboliczne. Zrealizowane zadanie uruchamia fakturowanie. Zatwierdzenie uruchamia wysyłkę. Potwierdzenie uruchamia rozliczenie. Jeśli system później zmienia ten wynik bez uporządkowanej ścieżki, luka nie zamyka się sama.
AI staje się lepsze. Wąskie gardło staje się gorsze.@mira_network W ubiegłym kwartale zintegrowaliśmy silniejszy model w proces analizy umów. Czas wnioskowania spadł. Jakość szkiców poprawiła się. Wskaźnik halucynacji spadł w testach wewnętrznych. Kolejka przeglądów się nie ruszyła. Ta sama liczba prawników. Ten sam SLA. Ta sama polityka zatwierdzania. Co się zmieniło, to wolumen. Więcej „użytecznych” szkiców oznaczało więcej szkiców wysyłanych do przeglądu. System stał się bardziej pewny siebie. Ludzie stali się bardziej zajęci. Polisa odpowiedzialności nie przejmowała się, że dokładność wzrosła z 94% do 97%. Lista kontrolna przeglądu nie zmniejszyła się, ponieważ benchmark to zrobił.

AI staje się lepsze. Wąskie gardło staje się gorsze.

@Mira - Trust Layer of AI
W ubiegłym kwartale zintegrowaliśmy silniejszy model w proces analizy umów.
Czas wnioskowania spadł. Jakość szkiców poprawiła się. Wskaźnik halucynacji spadł w testach wewnętrznych.
Kolejka przeglądów się nie ruszyła.
Ta sama liczba prawników. Ten sam SLA. Ta sama polityka zatwierdzania.
Co się zmieniło, to wolumen.
Więcej „użytecznych” szkiców oznaczało więcej szkiców wysyłanych do przeglądu. System stał się bardziej pewny siebie. Ludzie stali się bardziej zajęci.
Polisa odpowiedzialności nie przejmowała się, że dokładność wzrosła z 94% do 97%. Lista kontrolna przeglądu nie zmniejszyła się, ponieważ benchmark to zrobił.
@mira_network Wszyscy koncentrują się na tym, co się dzieje, gdy walidatory Miry się zgadzają. Tworzy się konsensus. Certyfikat zapisany w łańcuchu. Wynik zweryfikowany. Zaufanie ustalone. Dobrze... To jest widoczna część. To, co wciąż obserwuję, to to, co się dzieje przed tym, gdy się nie zgadzają. Widziałem, jak trzech walidatorów natychmiast rozwiązuje roszczenie. Publiczne daty. Zgłoszenia. Numery, które wszyscy już mają w pamięci. Stosy wag. Odznaki włączają się. Następny fragment z tego samego wyniku po prostu tam siedzi. Nie jest błędny. Nie jest obalony. Po prostu… kwestionowany. Różni walidatorzy lądują nieco inaczej. Nie dlatego, że jeden jest uszkodzony. Ponieważ są szkoleni w różny sposób. Różne mieszanki danych. Różne priorytety. Różne sposoby rozwiązywania niejednoznaczności. To nieporozumienie nie jest szumem. To sygnał. Pojedynczy model nigdy nie pokazuje ci tej warstwy. Daje ci jedną odpowiedź i ton, który brzmi identycznie, niezależnie od tego, czy jest szczelny, czy kulturowo stronniczy. Nie widzisz, gdzie rozsądne systemy by się rozeszły. Widisz tylko pewność. Na Mirze rozbieżność jest widoczna. I to zmienia powierzchnię zaufania. W tej chwili mała grupa organizacji, może kilkuset badaczy skoncentrowanych w kilku miastach, efektywnie definiuje, co oznacza „poprawne” dla globalnie wdrożonych systemów AI. Ich domyślne ustawienia stają się infrastrukturą. Mira rozszerza tę definicję na niezależnych walidatorów, którzy mają ryzyko stawki. Kiedy się zbliżają, otrzymujesz coś bliższego do rozproszonej zgody. Kiedy się nie zgadzają, dokładnie dowiadujesz się, gdzie prawda jest niestabilna. Token $MIRA to to, co czyni tę widoczną rozbieżność ekonomicznie realną. Walidatory blokują wartość. Poprawna weryfikacja przynosi zyski. Niedbały lub leniwy konsensus kosztuje. Zgoda nie jest domniemana. Musi być wypracowana. To, co dla mnie ma znaczenie, to nie czysty certyfikat. To fragment, który zatrzymuje się tuż poniżej progu. Jeśli system nagradza tylko szybkie zbieżności, niuanse są niedostatecznie próbkowane. Jeśli rozbieżność pozostaje ekonomicznie wykonalna wystarczająco długo, aby rozwiązać to właściwie, wtedy masz rzeczywiście warstwę zaufania. To jest różnica. Nie mądrzejsza AI. Odpowiedzialna rozbieżność. #Mira
@Mira - Trust Layer of AI

Wszyscy koncentrują się na tym, co się dzieje, gdy walidatory Miry się zgadzają.

Tworzy się konsensus. Certyfikat zapisany w łańcuchu. Wynik zweryfikowany. Zaufanie ustalone.

Dobrze... To jest widoczna część.

To, co wciąż obserwuję, to to, co się dzieje przed tym, gdy się nie zgadzają.

Widziałem, jak trzech walidatorów natychmiast rozwiązuje roszczenie. Publiczne daty. Zgłoszenia. Numery, które wszyscy już mają w pamięci. Stosy wag. Odznaki włączają się.

Następny fragment z tego samego wyniku po prostu tam siedzi.

Nie jest błędny. Nie jest obalony. Po prostu… kwestionowany.

Różni walidatorzy lądują nieco inaczej. Nie dlatego, że jeden jest uszkodzony. Ponieważ są szkoleni w różny sposób. Różne mieszanki danych. Różne priorytety. Różne sposoby rozwiązywania niejednoznaczności.

To nieporozumienie nie jest szumem. To sygnał.
Pojedynczy model nigdy nie pokazuje ci tej warstwy. Daje ci jedną odpowiedź i ton, który brzmi identycznie, niezależnie od tego, czy jest szczelny, czy kulturowo stronniczy. Nie widzisz, gdzie rozsądne systemy by się rozeszły. Widisz tylko pewność.

Na Mirze rozbieżność jest widoczna.

I to zmienia powierzchnię zaufania.

W tej chwili mała grupa organizacji, może kilkuset badaczy skoncentrowanych w kilku miastach, efektywnie definiuje, co oznacza „poprawne” dla globalnie wdrożonych systemów AI. Ich domyślne ustawienia stają się infrastrukturą.

Mira rozszerza tę definicję na niezależnych walidatorów, którzy mają ryzyko stawki.

Kiedy się zbliżają, otrzymujesz coś bliższego do rozproszonej zgody.

Kiedy się nie zgadzają, dokładnie dowiadujesz się, gdzie prawda jest niestabilna.

Token $MIRA to to, co czyni tę widoczną rozbieżność ekonomicznie realną. Walidatory blokują wartość. Poprawna weryfikacja przynosi zyski. Niedbały lub leniwy konsensus kosztuje. Zgoda nie jest domniemana. Musi być wypracowana.

To, co dla mnie ma znaczenie, to nie czysty certyfikat.
To fragment, który zatrzymuje się tuż poniżej progu.
Jeśli system nagradza tylko szybkie zbieżności, niuanse są niedostatecznie próbkowane.

Jeśli rozbieżność pozostaje ekonomicznie wykonalna wystarczająco długo, aby rozwiązać to właściwie, wtedy masz rzeczywiście warstwę zaufania.

To jest różnica.

Nie mądrzejsza AI.

Odpowiedzialna rozbieżność.

#Mira
@FabricFND Prawie to zignorowałem. „Granica zadania zdefiniowana przez uznanie operatora.” Nie błąd. Nie opóźnienie. Po prostu zdanie siedzące tam. W systemach fizycznych „zrobione” jest nieuchwytne. Czy dostawa jest kompletna przy skanowaniu drzwi? Przy podpisie? Po upływie czasu? Zależy od tego, kto zdecydował. Większość stosów, które widziałem, po prostu pozwala operatorowi to zdefiniować i przejść dalej. Protokół to akceptuje. Wszystko wygląda dobrze, dopóki ktoś nie zakwestionuje czegoś tygodnie później. W tym momencie granica już ukształtowała liczby. Nikt nie zgłasza tego jako incydentu. Nieprzyjemną częścią jest to, że kto rysuje tę linię, kontroluje to, co zostaje zweryfikowane. Nie rozliczenie. Nie spór. Sama linia. Jeśli ta definicja żyje na łańcuchu i można ją kwestionować, w porządku. Przynajmniej manipulacja kosztuje coś. Jeśli jest ukryta w dokumentacji operacyjnej, weryfikacja już jest poniżej rzeczywistej decyzji. $ROBO ma tu znaczenie tylko wtedy, gdy zmusza tę granicę do publicznego wglądu. W przeciwnym razie księga rachunkowa jest po prostu precyzyjna w kwestii tego, co ktoś zdecydował, że „zrobione” oznacza. Nie zaczynam już od objętości sporów. Zaczynam od tego, czy ktokolwiek zgadza się na to, czym w ogóle jest roszczenie. #ROBO #robo
@Fabric Foundation

Prawie to zignorowałem.
„Granica zadania zdefiniowana przez uznanie operatora.”

Nie błąd. Nie opóźnienie. Po prostu zdanie siedzące tam.

W systemach fizycznych „zrobione” jest nieuchwytne. Czy dostawa jest kompletna przy skanowaniu drzwi? Przy podpisie? Po upływie czasu? Zależy od tego, kto zdecydował.

Większość stosów, które widziałem, po prostu pozwala operatorowi to zdefiniować i przejść dalej. Protokół to akceptuje. Wszystko wygląda dobrze, dopóki ktoś nie zakwestionuje czegoś tygodnie później. W tym momencie granica już ukształtowała liczby. Nikt nie zgłasza tego jako incydentu.

Nieprzyjemną częścią jest to, że kto rysuje tę linię, kontroluje to, co zostaje zweryfikowane. Nie rozliczenie. Nie spór. Sama linia.

Jeśli ta definicja żyje na łańcuchu i można ją kwestionować, w porządku. Przynajmniej manipulacja kosztuje coś. Jeśli jest ukryta w dokumentacji operacyjnej, weryfikacja już jest poniżej rzeczywistej decyzji.

$ROBO ma tu znaczenie tylko wtedy, gdy zmusza tę granicę do publicznego wglądu. W przeciwnym razie księga rachunkowa jest po prostu precyzyjna w kwestii tego, co ktoś zdecydował, że „zrobione” oznacza.

Nie zaczynam już od objętości sporów. Zaczynam od tego, czy ktokolwiek zgadza się na to, czym w ogóle jest roszczenie.

#ROBO #robo
Ostatnia linia obrony przed błędami AI to wciąż człowiek. Mira próbuje to zmienić.Pozwól, że powiem ci coś, co nie jest wystarczająco często mówione... Każda poważna firma korzystająca z AI w tej chwili... wciąż ma gdzieś w procesie człowieka, który sprawdza wyniki przed tym, jak cokolwiek ważnego się wydarzy. Każdy z nich... Może to być młodszy analityk czytający podsumowanie AI przed jego przekazaniem do zarządu. Programista przeszukujący wygenerowany kod przed jego wprowadzeniem. Osoba zajmująca się zgodnością przeglądająca rekomendację AI przed podjęciem decyzji. Ktoś, gdzieś, klika i mówi "tak... to wygląda dobrze" przed tym, jak sprawa rzeczywiście posunie się naprzód.

Ostatnia linia obrony przed błędami AI to wciąż człowiek. Mira próbuje to zmienić.

Pozwól, że powiem ci coś, co nie jest wystarczająco często mówione...

Każda poważna firma korzystająca z AI w tej chwili... wciąż ma gdzieś w procesie człowieka, który sprawdza wyniki przed tym, jak cokolwiek ważnego się wydarzy.

Każdy z nich...

Może to być młodszy analityk czytający podsumowanie AI przed jego przekazaniem do zarządu. Programista przeszukujący wygenerowany kod przed jego wprowadzeniem. Osoba zajmująca się zgodnością przeglądająca rekomendację AI przed podjęciem decyzji. Ktoś, gdzieś, klika i mówi "tak... to wygląda dobrze" przed tym, jak sprawa rzeczywiście posunie się naprzód.
Zastanawiałem się, co się stanie, gdy robot poprosi o zapłatę. I co się stanie, gdy ktoś powie nie.Mały robot dostawczy podjechał do wejścia budynku mieszkalnego późno w nocy. Dostawa jedzenia zakończona. Obserwowałem go przez chwilę po zakończeniu zadania. Wtedy na pulpicie pojawiło się powiadomienie.... Żądanie płatności. Szczerze mówiąc, zatrzymałem się na tym.... Nie dlatego, że było to technicznie zaskakujące. Bo coś w obserwowaniu maszyny, która formalnie prosi o wynagrodzenie za pracę fizyczną, wydawało się inne niż czytanie o tym w białej księdze. A następna myśl nadeszła prawie natychmiast... Co się stanie, jeśli budynek to zakwestionuje. Co się stanie, jeśli ktoś powie, że zadanie nie zostało ukończone poprawnie.

Zastanawiałem się, co się stanie, gdy robot poprosi o zapłatę. I co się stanie, gdy ktoś powie nie.

Mały robot dostawczy podjechał do wejścia budynku mieszkalnego późno w nocy. Dostawa jedzenia zakończona. Obserwowałem go przez chwilę po zakończeniu zadania.

Wtedy na pulpicie pojawiło się powiadomienie.... Żądanie płatności.

Szczerze mówiąc, zatrzymałem się na tym.... Nie dlatego, że było to technicznie zaskakujące. Bo coś w obserwowaniu maszyny, która formalnie prosi o wynagrodzenie za pracę fizyczną, wydawało się inne niż czytanie o tym w białej księdze. A następna myśl nadeszła prawie natychmiast... Co się stanie, jeśli budynek to zakwestionuje. Co się stanie, jeśli ktoś powie, że zadanie nie zostało ukończone poprawnie.
ROBO dodał coś, czego się nie spodziewałem, gdy po raz pierwszy na to spojrzałem. Cichy licznik nadpisania w runbooku. Zauważyłem to trzy tygodnie po integracji. Liczba wynosiła już czterdzieści. Nic nie zawiodło. Zadania były realizowane. Ale późne wyzwania były rozstrzygane poza protokołem, a każda poprawka pozostawała na miejscu. Nadpisania przestały wyglądać na tymczasowe około piątego tygodnia. To jest tryb awarii, o którym nikt nie składa raportu o incydencie. System działa. Autonomia zaczyna cicho zbierać nadzór, aż ktoś spojrzy na runbook i zda sobie sprawę, że połowa to logika czyszczenia, która nie powinna istnieć. Z tego, co widziałem... to jest miejsce, w którym większość stosów koordynacji agentów się załamuje. Nie dramatycznie. Bufory się rozszerzają. Obserwatorzy są wdrażani. Listy kontrolne eskalacji przechodzą z tymczasowych na stałe. A zespół, który miał budować, zaczyna utrzymywać zamiast tego. @FabricFND jest interesujące tutaj, ponieważ utrzymuje kontestowane obliczenia wewnątrz granicy rozliczenia. Wyzwanie uruchamia zdefiniowaną ścieżkę. Rozwiązanie zachodzi na łańcuchu, a nie w prywatnym wątku. Rozliczenie wstrzymuje się celowo, a nie nieformalnie. To inny rodzaj odpowiedzialności niż nadzieja, że ktoś to zauważy. Są koszty. Okna wyzwań dodają opóźnienia. Powierzchnia zwiększa się. Budowniczy muszą definiować czystsze granice zadań wcześniej, niż chcieliby. Ta ostatnia część jest trudniejsza, niż się wydaje. $ROBO napędza ten cykl rozwiązań. Nie interesująca część historii. Część, która sprawia, że interesująca część się utrzymuje. Test jest nudny. Licznik nadpisania spada w czasie. Skrypty eskalacji są usuwane zamiast aktualizowane. Jeśli to się wydarzy, mechanizm działa. Jeśli prywatne rozwiązanie nadal rośnie cicho, to nie działa. Wciąż obserwuję, która to się okaże. #ROBO #robo
ROBO dodał coś, czego się nie spodziewałem, gdy po raz pierwszy na to spojrzałem. Cichy licznik nadpisania w runbooku. Zauważyłem to trzy tygodnie po integracji. Liczba wynosiła już czterdzieści.

Nic nie zawiodło. Zadania były realizowane. Ale późne wyzwania były rozstrzygane poza protokołem, a każda poprawka pozostawała na miejscu. Nadpisania przestały wyglądać na tymczasowe około piątego tygodnia.

To jest tryb awarii, o którym nikt nie składa raportu o incydencie. System działa. Autonomia zaczyna cicho zbierać nadzór, aż ktoś spojrzy na runbook i zda sobie sprawę, że połowa to logika czyszczenia, która nie powinna istnieć.

Z tego, co widziałem... to jest miejsce, w którym większość stosów koordynacji agentów się załamuje. Nie dramatycznie. Bufory się rozszerzają. Obserwatorzy są wdrażani. Listy kontrolne eskalacji przechodzą z tymczasowych na stałe. A zespół, który miał budować, zaczyna utrzymywać zamiast tego.

@Fabric Foundation jest interesujące tutaj, ponieważ utrzymuje kontestowane obliczenia wewnątrz granicy rozliczenia. Wyzwanie uruchamia zdefiniowaną ścieżkę. Rozwiązanie zachodzi na łańcuchu, a nie w prywatnym wątku. Rozliczenie wstrzymuje się celowo, a nie nieformalnie. To inny rodzaj odpowiedzialności niż nadzieja, że ktoś to zauważy.

Są koszty. Okna wyzwań dodają opóźnienia. Powierzchnia zwiększa się. Budowniczy muszą definiować czystsze granice zadań wcześniej, niż chcieliby. Ta ostatnia część jest trudniejsza, niż się wydaje.
$ROBO napędza ten cykl rozwiązań. Nie interesująca część historii. Część, która sprawia, że interesująca część się utrzymuje.

Test jest nudny. Licznik nadpisania spada w czasie. Skrypty eskalacji są usuwane zamiast aktualizowane. Jeśli to się wydarzy, mechanizm działa. Jeśli prywatne rozwiązanie nadal rośnie cicho, to nie działa.

Wciąż obserwuję, która to się okaże.

#ROBO #robo
@mira_network Zauważyłem ostatnio coś. Wszyscy mówią o tym, że AI staje się tańsze. Więcej modeli pojawia się co tydzień. Dostęp wszędzie. I tak, to naprawdę imponujące. Rok temu te rzeczy kosztowały prawdziwe pieniądze, aby je poważnie używać. Teraz jest to praktycznie za darmo. Ale tanio i godne zaufania to nie to samo. I myślę, że ta różnica jest ignorowana. Oto co mam na myśli... Jeśli używasz AI do pisania podpisu lub burzy mózgów, to w porządku. Nie ma większego znaczenia, jeśli coś jest lekko błędne. Ale Web3 zaczyna używać AI do rzeczy, które naprawdę mają konsekwencje. Wykonywanie transakcji. Podsumowywanie propozycji rządowych. Wprowadzanie danych do protokołów DeFi, które następnie działają na podstawie tych danych automatycznie. W tych środowiskach, błędny wynik to nie tylko niedogodność... To ryzyko. Szczerze mówiąc... to właśnie przyciągnęło mnie ostatnio do Mira Network. Nie dlatego, że kąt AI jest nowy, każdy teraz ma kąt AI. Ale dlatego, że Mira zadaje pytanie, które większość projektów całkowicie pomija. Nie jak uczynić AI tańszym lub szybszym. Ale jak właściwie zweryfikować to, co produkuje, zanim coś na to zareaguje. Z tego, co rozumiem... sposób, w jaki Mira to robi, polega na podzieleniu wyniku AI na indywidualne roszczenia i uruchomieniu tych roszczeń przez niezależne modele, które nie mają powodu, aby się zgadzać. Brak wspólnego szkolenia. Brak skoordynowanej agendy. To, co przetrwa ten proces, jest rejestrowane na łańcuchu przez konsensus. Przejrzyste. Możliwe do audytu. Trwałe. Token $MIRA to to, co powstrzymuje walidatorów przed lenistwem w tej kwestii. Dokładna weryfikacja przynosi korzyści. Niedbała weryfikacja traci stawkę. Więc to nie tylko ładny projekt... ekonomia rzeczywiście to egzekwuje. Nie wiem, czy większość ludzi to zauważyła, ale dostęp do surowego AI staje się praktycznie towarem. To, co nadal jest rzadkie, to możliwość zaufania temu, co mówi. To wydaje się teraz bardziej interesującą rzeczą do zbudowania. #Mira #mira
@Mira - Trust Layer of AI

Zauważyłem ostatnio coś.
Wszyscy mówią o tym, że AI staje się tańsze. Więcej modeli pojawia się co tydzień. Dostęp wszędzie. I tak, to naprawdę imponujące. Rok temu te rzeczy kosztowały prawdziwe pieniądze, aby je poważnie używać. Teraz jest to praktycznie za darmo.
Ale tanio i godne zaufania to nie to samo. I myślę, że ta różnica jest ignorowana.

Oto co mam na myśli... Jeśli używasz AI do pisania podpisu lub burzy mózgów, to w porządku. Nie ma większego znaczenia, jeśli coś jest lekko błędne. Ale Web3 zaczyna używać AI do rzeczy, które naprawdę mają konsekwencje. Wykonywanie transakcji. Podsumowywanie propozycji rządowych. Wprowadzanie danych do protokołów DeFi, które następnie działają na podstawie tych danych automatycznie.

W tych środowiskach, błędny wynik to nie tylko niedogodność... To ryzyko.

Szczerze mówiąc... to właśnie przyciągnęło mnie ostatnio do Mira Network. Nie dlatego, że kąt AI jest nowy, każdy teraz ma kąt AI. Ale dlatego, że Mira zadaje pytanie, które większość projektów całkowicie pomija.

Nie jak uczynić AI tańszym lub szybszym. Ale jak właściwie zweryfikować to, co produkuje, zanim coś na to zareaguje.

Z tego, co rozumiem... sposób, w jaki Mira to robi, polega na podzieleniu wyniku AI na indywidualne roszczenia i uruchomieniu tych roszczeń przez niezależne modele, które nie mają powodu, aby się zgadzać. Brak wspólnego szkolenia. Brak skoordynowanej agendy. To, co przetrwa ten proces, jest rejestrowane na łańcuchu przez konsensus. Przejrzyste. Możliwe do audytu. Trwałe.

Token $MIRA to to, co powstrzymuje walidatorów przed lenistwem w tej kwestii. Dokładna weryfikacja przynosi korzyści. Niedbała weryfikacja traci stawkę. Więc to nie tylko ładny projekt... ekonomia rzeczywiście to egzekwuje.

Nie wiem, czy większość ludzi to zauważyła, ale dostęp do surowego AI staje się praktycznie towarem. To, co nadal jest rzadkie, to możliwość zaufania temu, co mówi.

To wydaje się teraz bardziej interesującą rzeczą do zbudowania.

#Mira #mira
Zrobione nie jest zrobione, dopóki system nie powie, że jest zrobione.@FabricFND Awarie są hałaśliwe. Wycofania są ciche. Ta różnica to wszystko. Nauczyłem się tego później, niż powinienem. Awarie, które tak naprawdę cię kosztują? Pojawiają się po sukcesie. Nie zamiast niego. Spędziłem długi czas, zastanawiając się nad czymś. Pewne autonomiczne systemy działały dobrze na papierze. Zadania się kończyły. Metryki były zielone. A mimo to zespoły je obsługujące ciągle rosły. Okna buforowe ciągle się rozszerzały. Ludzkie punkty kontrolne pojawiały się w miejscach, których nikt nie planował. W końcu... prześledziłem to do wycofań. Nie do awarii. Wycofania.

Zrobione nie jest zrobione, dopóki system nie powie, że jest zrobione.

@Fabric Foundation
Awarie są hałaśliwe. Wycofania są ciche. Ta różnica to wszystko. Nauczyłem się tego później, niż powinienem.
Awarie, które tak naprawdę cię kosztują? Pojawiają się po sukcesie. Nie zamiast niego.
Spędziłem długi czas, zastanawiając się nad czymś. Pewne autonomiczne systemy działały dobrze na papierze. Zadania się kończyły. Metryki były zielone. A mimo to zespoły je obsługujące ciągle rosły. Okna buforowe ciągle się rozszerzały. Ludzkie punkty kontrolne pojawiały się w miejscach, których nikt nie planował.
W końcu... prześledziłem to do wycofań. Nie do awarii. Wycofania.
@FabricFND Myślę, że... Uruchamianie autonomicznych systemów uczy czegoś szybko. Awaria, na którą się przygotowujesz, nigdy nie jest tą, która cię kosztuje. Uwzględniasz sprzęt. Uwzględniasz spadki sieci. Budujesz redundancję w oczywistych miejscach. Czego nie uwzględniasz, dopóki to się nie wydarzy, to moment, w którym maszyna robi dokładnie to, co jej powiedziano, a ty wciąż nie możesz tego udowodnić. Ani regulatorowi. Ani klientowi. Nawet sobie o 2 w nocy, gdy coś w górze wydaje się nie tak, a ty próbujesz odtworzyć, co tak naprawdę się wydarzyło w porównaniu do tego, co mówi log. To bardziej mnie niepokoiło, niż się spodziewałem, gdy po raz pierwszy się z tym spotkałem. Ponieważ nie dodajesz kolejnej warstwy audytu tylko dlatego, że coś się zepsuło. Dodajesz ją, ponieważ szara strefa jest prawdziwa, a twoja operacja nauczyła się jej bać. Szczerze mówiąc... większość projektowania protokołów nawet nie uznaje, że ten problem istnieje. To sprawiło, że Fabric Protocol był wart mojego czasu. Wspierany przez non-profit Fabric Foundation, to globalna otwarta sieć dla robotów ogólnego przeznaczenia, gdzie weryfikowalne obliczenia są strukturalne od samego początku. Gdy maszyna wykonuje zadanie, obliczenia są przypisane do publicznego rejestru. To, co system twierdzi, że się wydarzyło, a to, co się naprawdę wydarzyło, można potwierdzić niezależnie. Trochę jak zakładać, że paragon zawsze jest dokładny, nigdy nie sprawdzając konta. Fabric całkowicie eliminuje to założenie. Większość autonomicznej infrastruktury opiera się na zaufaniu do dostawcy, zaufaniu do logu, zaufaniu do kanału aktualizacji. To nie skaluje się, gdy maszyny podejmują fizyczne decyzje w przestrzeniach, gdzie odpowiedzialność nie jest opcjonalna. Przyjęcie to prawdziwy test tutaj, a nie architektura. Mimo to... wolę wolniejsze i zweryfikowane niż szybkie i ślepo zaufane. #ROBO $ROBO #robo {future}(ROBOUSDT)
@Fabric Foundation

Myślę, że... Uruchamianie autonomicznych systemów uczy czegoś szybko. Awaria, na którą się przygotowujesz, nigdy nie jest tą, która cię kosztuje.

Uwzględniasz sprzęt. Uwzględniasz spadki sieci. Budujesz redundancję w oczywistych miejscach. Czego nie uwzględniasz, dopóki to się nie wydarzy, to moment, w którym maszyna robi dokładnie to, co jej powiedziano, a ty wciąż nie możesz tego udowodnić. Ani regulatorowi. Ani klientowi. Nawet sobie o 2 w nocy, gdy coś w górze wydaje się nie tak, a ty próbujesz odtworzyć, co tak naprawdę się wydarzyło w porównaniu do tego, co mówi log.

To bardziej mnie niepokoiło, niż się spodziewałem, gdy po raz pierwszy się z tym spotkałem.

Ponieważ nie dodajesz kolejnej warstwy audytu tylko dlatego, że coś się zepsuło. Dodajesz ją, ponieważ szara strefa jest prawdziwa, a twoja operacja nauczyła się jej bać. Szczerze mówiąc... większość projektowania protokołów nawet nie uznaje, że ten problem istnieje.

To sprawiło, że Fabric Protocol był wart mojego czasu.

Wspierany przez non-profit Fabric Foundation, to globalna otwarta sieć dla robotów ogólnego przeznaczenia, gdzie weryfikowalne obliczenia są strukturalne od samego początku. Gdy maszyna wykonuje zadanie, obliczenia są przypisane do publicznego rejestru. To, co system twierdzi, że się wydarzyło, a to, co się naprawdę wydarzyło, można potwierdzić niezależnie. Trochę jak zakładać, że paragon zawsze jest dokładny, nigdy nie sprawdzając konta. Fabric całkowicie eliminuje to założenie.

Większość autonomicznej infrastruktury opiera się na zaufaniu do dostawcy, zaufaniu do logu, zaufaniu do kanału aktualizacji. To nie skaluje się, gdy maszyny podejmują fizyczne decyzje w przestrzeniach, gdzie odpowiedzialność nie jest opcjonalna.

Przyjęcie to prawdziwy test tutaj, a nie architektura. Mimo to... wolę wolniejsze i zweryfikowane niż szybkie i ślepo zaufane.

#ROBO $ROBO #robo
DAOs głosują na podsumowania AI. To powinno nas niepokoić.@mira_network DAOs nie są już eksperymentami. Zarządzają prawdziwymi pieniędzmi. Skarby warte miliony. Ulepszenia. Alokacje. Partnerstwa. I częściej, niż ludzie przyznają, wyborcy czytają podsumowania generowane przez AI przed głosowaniem. Szczerze mówiąc, na powierzchni to ma sens. Propozycje zarządzania są długie i techniczne. Większość posiadaczy tokenów nie ma czasu, aby przeczytać każdą linię. Dlatego polegają na podsumowaniu. Czystym, pewnym podsumowaniu. Oto niewygodna część... Kto zweryfikował to podsumowanie? Zwykle... nikt. AI to wygenerowało. Brzmi jasno. Prawdopodobnie ma rację w większości spraw. Ale czasami coś mu umyka. Czasami upraszcza zbyt mocno. Czasami błędnie interpretuje klauzulę, która faktycznie zmienia wynik głosowania. A oto rzecz... nie powie ci, kiedy to zrobi. Po prostu brzmi poprawnie w każdym przypadku.

DAOs głosują na podsumowania AI. To powinno nas niepokoić.

@Mira - Trust Layer of AI
DAOs nie są już eksperymentami.
Zarządzają prawdziwymi pieniędzmi. Skarby warte miliony. Ulepszenia. Alokacje. Partnerstwa. I częściej, niż ludzie przyznają, wyborcy czytają podsumowania generowane przez AI przed głosowaniem.
Szczerze mówiąc, na powierzchni to ma sens. Propozycje zarządzania są długie i techniczne. Większość posiadaczy tokenów nie ma czasu, aby przeczytać każdą linię. Dlatego polegają na podsumowaniu. Czystym, pewnym podsumowaniu.
Oto niewygodna część... Kto zweryfikował to podsumowanie?
Zwykle... nikt.
AI to wygenerowało. Brzmi jasno. Prawdopodobnie ma rację w większości spraw. Ale czasami coś mu umyka. Czasami upraszcza zbyt mocno. Czasami błędnie interpretuje klauzulę, która faktycznie zmienia wynik głosowania. A oto rzecz... nie powie ci, kiedy to zrobi. Po prostu brzmi poprawnie w każdym przypadku.
@mira_network Kryptowaluty zostały stworzone na jednej idei. Nie ufaj. Weryfikuj. Powiedzieliśmy nie bankom centralnym. Nie dla kustoszy. Nie dla nikogo, kto prosi nas, abyśmy po prostu im uwierzyli bez dowodu. Zbudowaliśmy mechanizmy konsensusu, sieci walidatorów, gwarancje kryptograficzne... całe systemy zaprojektowane tak, aby zaufanie nigdy nie było wymogiem. A potem AI weszło do stosu. Cicho, bez większej debaty, oddaliśmy warstwę inteligencji Web3 z powrotem trzem lub czterem scentralizowanym firmom. Ich modele. Ich dane treningowe. Ich decyzje dotyczące tego, co uznaje się za dokładne. Brak konsensusu. Brak weryfikacji. Brak kryptograficznego dowodu, że wynik jest tym, za co się podaje. Zdecentralizowaliśmy pieniądze, a potem ślepo zaufaliśmy AI. Ta sprzeczność powinna niepokoić więcej ludzi niż to robi. Mira Network to protokół, który naprawdę to zauważył. Działa jako zdecentralizowany protokół weryfikacji, który przekształca wyniki AI w kryptograficznie weryfikowane informacje poprzez konsensus blockchain. Wynik AI jest dzielony na indywidualne roszczenia, rozdzielane pomiędzy niezależne modele bez wspólnej agendy, a konsensus tworzy się z prawdziwej konwergencji... nie koordynacji. Token $MIRA sprawia, że uczciwość walidatorów jest egzekwowana ekonomicznie, a nie tylko etycznie oczekiwana. Nie ufaj. Weryfikuj. To zawsze był cel. Mira po prostu stosuje to do warstwy, o której zapomnieliśmy. #Mira #mira
@Mira - Trust Layer of AI

Kryptowaluty zostały stworzone na jednej idei. Nie ufaj. Weryfikuj.

Powiedzieliśmy nie bankom centralnym. Nie dla kustoszy. Nie dla nikogo, kto prosi nas, abyśmy po prostu im uwierzyli bez dowodu. Zbudowaliśmy mechanizmy konsensusu, sieci walidatorów, gwarancje kryptograficzne... całe systemy zaprojektowane tak, aby zaufanie nigdy nie było wymogiem.

A potem AI weszło do stosu.

Cicho, bez większej debaty, oddaliśmy warstwę inteligencji Web3 z powrotem trzem lub czterem scentralizowanym firmom. Ich modele. Ich dane treningowe. Ich decyzje dotyczące tego, co uznaje się za dokładne. Brak konsensusu. Brak weryfikacji. Brak kryptograficznego dowodu, że wynik jest tym, za co się podaje.

Zdecentralizowaliśmy pieniądze, a potem ślepo zaufaliśmy AI. Ta sprzeczność powinna niepokoić więcej ludzi niż to robi.

Mira Network to protokół, który naprawdę to zauważył. Działa jako zdecentralizowany protokół weryfikacji, który przekształca wyniki AI w kryptograficznie weryfikowane informacje poprzez konsensus blockchain. Wynik AI jest dzielony na indywidualne roszczenia, rozdzielane pomiędzy niezależne modele bez wspólnej agendy, a konsensus tworzy się z prawdziwej konwergencji... nie koordynacji. Token $MIRA sprawia, że uczciwość walidatorów jest egzekwowana ekonomicznie, a nie tylko etycznie oczekiwana.

Nie ufaj. Weryfikuj. To zawsze był cel.

Mira po prostu stosuje to do warstwy, o której zapomnieliśmy.

#Mira #mira
Sceptyk do Wierzącego: Dlaczego Fabric Protocol Zmienił Moje Myślenie o Robotach i Odpowiedzialności@FabricFND Pozwól, że będę szczery w kwestii tego, jak to się zaczęło. Ktoś wspomina o robotach rządzonych na blockchainie, a moja pierwsza myśl jest taka sama jak twoja prawdopodobnie była. Inna narracja. Inny dokument wypełniony ambicjami. Obserwowałem letnie sezony DeFi, momenty NFT i sezony tokenów AI, które przychodziły i znikały. Wiem, jak wygląda wymuszona innowacja. Więc kiedy Fabric Protocol po raz pierwszy pojawił się na moim radarze, dałem mu czterdzieści sekund. Potem dałem mu czterdzieści minut. Gdzieś w tych czterdziestu minutach coś się zmieniło. Nie dlatego, że prezentacja była gładka. Ponieważ problem, który rozwiązuje, to taki, z którym cicho sobie siedziałem, nie zdając sobie sprawy, że ma nazwę.

Sceptyk do Wierzącego: Dlaczego Fabric Protocol Zmienił Moje Myślenie o Robotach i Odpowiedzialności

@Fabric Foundation
Pozwól, że będę szczery w kwestii tego, jak to się zaczęło. Ktoś wspomina o robotach rządzonych na blockchainie, a moja pierwsza myśl jest taka sama jak twoja prawdopodobnie była. Inna narracja. Inny dokument wypełniony ambicjami. Obserwowałem letnie sezony DeFi, momenty NFT i sezony tokenów AI, które przychodziły i znikały. Wiem, jak wygląda wymuszona innowacja.
Więc kiedy Fabric Protocol po raz pierwszy pojawił się na moim radarze, dałem mu czterdzieści sekund.
Potem dałem mu czterdzieści minut. Gdzieś w tych czterdziestu minutach coś się zmieniło.
Nie dlatego, że prezentacja była gładka. Ponieważ problem, który rozwiązuje, to taki, z którym cicho sobie siedziałem, nie zdając sobie sprawy, że ma nazwę.
Dzień, w którym AI zaczyna działać samodzielnie@mira_network W zeszłym roku oglądałem wątek na temat kryptowalut, w którym ktoś pozwolił agentowi AI zarządzać małą pozycją DeFi autonomicznie przez dwa tygodnie. Bez ludzkich kontroli. Pełne prawa do wykonania. Agent zrebalansował, skompoundował, przesunął alokacje na podstawie własnej analizy warunków rynkowych. Przez jedenaście dni działał dobrze. W dwunastym dniu źle zinterpretował zdarzenie związane z płynnością i podjął trzy kolejne decyzje, które zlikwidowały około czterdziestu procent pozycji w mniej niż godzinę. Odpowiedzi były podzielone prawie idealnie. Połowa ludzi stwierdziła, że eksperyment był lekkomyślny. Druga połowa powiedziała, że agent potrzebował tylko lepszych danych treningowych.

Dzień, w którym AI zaczyna działać samodzielnie

@Mira - Trust Layer of AI
W zeszłym roku oglądałem wątek na temat kryptowalut, w którym ktoś pozwolił agentowi AI zarządzać małą pozycją DeFi autonomicznie przez dwa tygodnie. Bez ludzkich kontroli. Pełne prawa do wykonania. Agent zrebalansował, skompoundował, przesunął alokacje na podstawie własnej analizy warunków rynkowych. Przez jedenaście dni działał dobrze. W dwunastym dniu źle zinterpretował zdarzenie związane z płynnością i podjął trzy kolejne decyzje, które zlikwidowały około czterdziestu procent pozycji w mniej niż godzinę.
Odpowiedzi były podzielone prawie idealnie. Połowa ludzi stwierdziła, że eksperyment był lekkomyślny. Druga połowa powiedziała, że agent potrzebował tylko lepszych danych treningowych.
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy