Binance Square

Sattar Chaqer

image
Zweryfikowany twórca
Portfolio so red it makes tomatoes jealous 🍅🔴
Otwarta transakcja
Posiadacz BNB
Posiadacz BNB
Trader systematyczny
Lata: 1.7
109 Obserwowani
45.3K+ Obserwujący
81.6K+ Polubione
6.8K+ Udostępnione
Posty
Portfolio
PINNED
·
--
Byczy
Zobacz tłumaczenie
Episode 5 what you think about this after 48 spins $USDC #binance monthly challenge
Episode 5 what you think about this after 48 spins $USDC #binance monthly challenge
Siadam i zastanawiam się, jak wciąż traktujemy roboty jak narzędzia. Skanują, przenoszą, ale rzadko otrzymują wynagrodzenie bezpośrednio; praca przepływa przez firmy, a nie maszyny, które to robią. Pomysł Fabric polega na nadaniu robotom weryfikowalnych tożsamości i portfeli na łańcuchu, aby mogły akceptować zadania, udowadniać wykonanie i rozliczać się automatycznie, co zmienia zachęty i kto może dostarczać usługi, jeśli maszyny mogą transakcjonować samodzielnie. Automatyzacja przestaje być izolowanymi flotami i zaczyna przypominać prawdziwy rynek pracy. Co się wtedy zmienia? $ROBO #ROBO @FabricFND $XRP #AltcoinSeasonTalkTwoYearLow #Write2Earn #power #RİVER {spot}(XRPUSDT) $DEGO {spot}(DEGOUSDT)
Siadam i zastanawiam się, jak wciąż traktujemy roboty jak narzędzia.

Skanują, przenoszą, ale rzadko otrzymują wynagrodzenie bezpośrednio; praca przepływa przez firmy, a nie maszyny, które to robią. Pomysł Fabric polega na nadaniu robotom weryfikowalnych tożsamości i portfeli na łańcuchu, aby mogły akceptować zadania, udowadniać wykonanie i rozliczać się automatycznie, co zmienia zachęty i kto może dostarczać usługi, jeśli maszyny mogą transakcjonować samodzielnie. Automatyzacja przestaje być izolowanymi flotami i zaczyna przypominać prawdziwy rynek pracy. Co się wtedy zmienia?

$ROBO #ROBO @Fabric Foundation $XRP #AltcoinSeasonTalkTwoYearLow #Write2Earn #power #RİVER
$DEGO
Dziękuję $RIVER przyjemność w interesach z tobą 😁😁 {future}(RIVERUSDT)
Dziękuję $RIVER przyjemność w interesach z tobą
😁😁
Sattar Chaqer
·
--
Narzekałem na $RIVER coin przez cały tydzień, ale jakoś mój portfel wygląda jakby właśnie poszedł na ryby i złapał coś dużego 👻👻🙈

Zrób swoje własne #research
{future}(RIVERUSDT)
Pięciowarstwowa architektura za siecią robotów FabricCiągle zauważam, że kiedy ludzie wyobrażają sobie robotykę w skali, wyobrażają sobie jeden system robiący wszystko, jeden łańcuch, jeden zestaw reguł, jedną płaszczyznę kontroli, a to nie jest sposób, w jaki zazwyczaj rosną duże systemy. W prawdziwym świecie rzeczy się rozdzielają, sieci ewoluują, warstwy, tożsamość, komunikacja, koordynacja, zarządzanie, rozliczenie, internet i finanse pokazują ten sam wzór, oddzielne kwestie, oddzielne warstwy, ponieważ złożoność to wymusza. Na poziomie gruntu nadal widzisz praktyczne problemy robotów magazynowych, które mogą podnosić pudełka, dron może zbierać dane. Ale te maszyny rzadko rozmawiają ze sobą poza granicami firmy, różne stosy, różne logi, różne rozliczenia, ta fragmentacja zamienia koordynację w trudny problem długo przed tym, jak inteligencja staje się czynnikiem ograniczającym.

Pięciowarstwowa architektura za siecią robotów Fabric

Ciągle zauważam, że kiedy ludzie wyobrażają sobie robotykę w skali, wyobrażają sobie jeden system robiący wszystko, jeden łańcuch, jeden zestaw reguł, jedną płaszczyznę kontroli, a to nie jest sposób, w jaki zazwyczaj rosną duże systemy.

W prawdziwym świecie rzeczy się rozdzielają, sieci ewoluują, warstwy, tożsamość, komunikacja, koordynacja, zarządzanie, rozliczenie, internet i finanse pokazują ten sam wzór, oddzielne kwestie, oddzielne warstwy, ponieważ złożoność to wymusza.

Na poziomie gruntu nadal widzisz praktyczne problemy robotów magazynowych, które mogą podnosić pudełka, dron może zbierać dane. Ale te maszyny rzadko rozmawiają ze sobą poza granicami firmy, różne stosy, różne logi, różne rozliczenia, ta fragmentacja zamienia koordynację w trudny problem długo przed tym, jak inteligencja staje się czynnikiem ograniczającym.
Obserwuję, jak większość ustawień AI ufa odpowiedzi jednego modelu, co mnie niepokoi. Ślepy punkt jednego modelu może stać się błędem wszystkich. @mira dzieli wyniki na weryfikowalne twierdzenia i pozwala kilku niezależnym modelom je ocenić przed przyznaniem zaufania. Szybsze odpowiedzi są miłe. Ale czy wolałbyś prędkość czy taką, która została sprawdzona? #Mira @mira_network $BTC $BNB $MIRA #Iran'sNewSupremeLeader #AltcoinSeasonTalkTwoYearLow #SolvProtocolHacked #doge {future}(MIRAUSDT)
Obserwuję, jak większość ustawień AI ufa odpowiedzi jednego modelu, co mnie niepokoi.

Ślepy punkt jednego modelu może stać się błędem wszystkich.

@mira dzieli wyniki na weryfikowalne twierdzenia i pozwala kilku niezależnym modelom je ocenić przed przyznaniem zaufania.

Szybsze odpowiedzi są miłe.
Ale czy wolałbyś prędkość czy taką, która została sprawdzona?

#Mira @Mira - Trust Layer of AI $BTC $BNB $MIRA #Iran'sNewSupremeLeader #AltcoinSeasonTalkTwoYearLow #SolvProtocolHacked #doge
Narzekałem na $RIVER coin przez cały tydzień, ale jakoś mój portfel wygląda jakby właśnie poszedł na ryby i złapał coś dużego 👻👻🙈 Zrób swoje własne #research {future}(RIVERUSDT)
Narzekałem na $RIVER coin przez cały tydzień, ale jakoś mój portfel wygląda jakby właśnie poszedł na ryby i złapał coś dużego 👻👻🙈

Zrób swoje własne #research
·
--
Byczy
Nie bądź chciwy, weź swój zysk i wyjdź 🏎️ 👻 $NAORIS zanim zaczniesz handlować, zrób własne badania {future}(NAORISUSDT)
Nie bądź chciwy, weź swój zysk i wyjdź 🏎️ 👻 $NAORIS zanim zaczniesz handlować, zrób własne badania
Ukryty problem zależności w AI: Alternatywa MiryCiągle zauważam, że większość rozmów na temat niezawodności AI wraca do jednej idei: poprawić model, większe sieci, więcej danych, świeższe dostrajanie, ale istnieje inny ryzyko, które zyskuje mniej uwagi: zależność od jednego modelu jako de facto źródła prawdy. Ta pojedyncza punktowa awaria epistemiczna wydaje się prosta na papierze i niebezpieczna w praktyce; jeśli model jest stronniczy, źle skalibrowany lub po prostu pechowy na wycinku danych, cały stos dziedziczy ten błąd. To, co @mira_network  wydaje się robić, to zmiana pytania: zamiast prosić jeden model o bycie ostatecznym arbitrem, Mira przekształca wyniki w weryfikowalne twierdzenia i przekazuje je do wielu niezależnych weryfikatorów. Zgoda wśród tych weryfikatorów, a nie wynik pewności jednego modelu, staje się sygnałem, któremu ufamy.

Ukryty problem zależności w AI: Alternatywa Miry

Ciągle zauważam, że większość rozmów na temat niezawodności AI wraca do jednej idei: poprawić model, większe sieci, więcej danych, świeższe dostrajanie, ale istnieje inny ryzyko, które zyskuje mniej uwagi: zależność od jednego modelu jako de facto źródła prawdy.

Ta pojedyncza punktowa awaria epistemiczna wydaje się prosta na papierze i niebezpieczna w praktyce; jeśli model jest stronniczy, źle skalibrowany lub po prostu pechowy na wycinku danych, cały stos dziedziczy ten błąd.

To, co @Mira - Trust Layer of AI  wydaje się robić, to zmiana pytania: zamiast prosić jeden model o bycie ostatecznym arbitrem, Mira przekształca wyniki w weryfikowalne twierdzenia i przekazuje je do wielu niezależnych weryfikatorów. Zgoda wśród tych weryfikatorów, a nie wynik pewności jednego modelu, staje się sygnałem, któremu ufamy.
Odcinek 4 wow jestem bogaty 🤑 mam 2$ $USDC z 38 spinami
Odcinek 4 wow jestem bogaty 🤑 mam 2$ $USDC z 38 spinami
Obserwuję, jak większość sieci robotycznych jest wyobrażana jako jeden duży system, który robi wszystko. Jeden łańcuch, jeden protokół, jedna warstwa do całej koordynacji. Jednak złożone systemy rzadko skalują się w ten sposób. Podejście fabryczne do robotyki jest bardziej jak infrastruktura tożsamości dla komunikacji maszyn między agentami, koordynacja zadań dla pracy, zarządzanie zasadami i rozliczenie za nagrody. Oddzielne warstwy rozwiązujące oddzielne problemy. Interesującą częścią jest to, co się dzieje, gdy się łączą. Ponieważ gdy roboty mogą się identyfikować, odkrywać zadania, weryfikować pracę i otrzymywać zapłatę, przestają zachowywać się jak odizolowane maszyny. Zaczynają zachowywać się jak uczestnicy w zsieciowanej gospodarce. $ROBO #ROBO @FabricFND
Obserwuję, jak większość sieci robotycznych jest wyobrażana jako jeden duży system, który robi wszystko.

Jeden łańcuch, jeden protokół, jedna warstwa do całej koordynacji.

Jednak złożone systemy rzadko skalują się w ten sposób.

Podejście fabryczne do robotyki jest bardziej jak infrastruktura tożsamości dla komunikacji maszyn między agentami, koordynacja zadań dla pracy, zarządzanie zasadami i rozliczenie za nagrody.

Oddzielne warstwy rozwiązujące oddzielne problemy.

Interesującą częścią jest to, co się dzieje, gdy się łączą.

Ponieważ gdy roboty mogą się identyfikować, odkrywać zadania, weryfikować pracę i otrzymywać zapłatę, przestają zachowywać się jak odizolowane maszyny.

Zaczynają zachowywać się jak uczestnicy w zsieciowanej gospodarce.

$ROBO #ROBO @Fabric Foundation
Pięcio-warstwowa architektura stojąca za siecią robotów FabricCiągle zauważam, że gdy ludzie wyobrażają sobie sieć robotyczną, często przedstawiają jeden dużym system zarządzający wszystkim. Jeden protokół, jeden łańcuch, jedna część infrastruktury koordynująca maszyny. Ale złożone technologie rzadko rozwijają się w ten sposób. Większość systemów, na których polegamy dzisiaj, rozwijała się w warstwach. Internet ma warstwy routingu, warstwy komunikacyjne, warstwy aplikacji, systemy finansowe oddzielające przesyłanie wiadomości od rozliczeń, gdy sieć staje się wystarczająco duża, różne funkcje naturalnie się rozdzielają. Robotyka wydaje się teraz osiągać ten etap.

Pięcio-warstwowa architektura stojąca za siecią robotów Fabric

Ciągle zauważam, że gdy ludzie wyobrażają sobie sieć robotyczną, często przedstawiają jeden dużym system zarządzający wszystkim.

Jeden protokół, jeden łańcuch, jedna część infrastruktury koordynująca maszyny.

Ale złożone technologie rzadko rozwijają się w ten sposób.

Większość systemów, na których polegamy dzisiaj, rozwijała się w warstwach. Internet ma warstwy routingu, warstwy komunikacyjne, warstwy aplikacji, systemy finansowe oddzielające przesyłanie wiadomości od rozliczeń, gdy sieć staje się wystarczająco duża, różne funkcje naturalnie się rozdzielają.

Robotyka wydaje się teraz osiągać ten etap.
Ciągle myślę o tym, jak większość systemów AI próbuje rozwiązać problem niezawodności. #Mira Zwykle odpowiedź jest prosta: zbudować mniejszy model. Ale co jeśli prawdziwym problemem nie jest inteligencja? Co @mira_network bada, to inna struktura, zamiast ufać odpowiedzi jednego modelu, system pozwala wielu niezależnym modelom przeglądać tę samą tezę i porównywać wyniki. Interesującą częścią jest to, co dzieje się następnie. Weryfikatorzy stawiają $MIRA , aby wziąć udział. Uczciwa weryfikacja przynosi nagrody. Nieuczciwe zachowanie wiąże się z ryzykiem utraty tej stawki. Tak więc niezawodność przestaje być cechą modelu. Staje się czymś, co system egzekwuje ekonomicznie. AI nie musi być doskonałe, jeśli sieć ma powód, by je sprawdzić. Czasami prawda staje się silniejsza, gdy zachęty zaczynają ją chronić.
Ciągle myślę o tym, jak większość systemów AI próbuje rozwiązać problem niezawodności. #Mira

Zwykle odpowiedź jest prosta: zbudować mniejszy model.

Ale co jeśli prawdziwym problemem nie jest inteligencja?

Co @Mira - Trust Layer of AI bada, to inna struktura, zamiast ufać odpowiedzi jednego modelu, system pozwala wielu niezależnym modelom przeglądać tę samą tezę i porównywać wyniki.

Interesującą częścią jest to, co dzieje się następnie.

Weryfikatorzy stawiają $MIRA , aby wziąć udział.
Uczciwa weryfikacja przynosi nagrody.
Nieuczciwe zachowanie wiąże się z ryzykiem utraty tej stawki.

Tak więc niezawodność przestaje być cechą modelu.

Staje się czymś, co system egzekwuje ekonomicznie.

AI nie musi być doskonałe,
jeśli sieć ma powód, by je sprawdzić.

Czasami prawda staje się silniejsza,
gdy zachęty zaczynają ją chronić.
Dlaczego Mira przekształca niezawodność AI w system ekonomiczny oparty na kryptowalutachKiedyś myślałem, że sposób na uczynienie AI niezawodnym polega po prostu na poprawie modelu, dłuższym treningu, dodawaniu większej ilości danych, poprawie architektury; jeśli model stanie się wystarczająco inteligentny, błędy w końcu znikną. Ale prawdziwe systemy rzadko zachowują się w ten sposób. W większości złożonych systemów niezawodność nie pochodzi z doskonałości, lecz z struktury; rynki finansowe polegają na zachętach, sieci rozproszone polegają na niezależnych walidatorach, a nawet nauka zależy od innych ludzi weryfikujących pracę. Ten wzór zaczyna się pojawiać w tym, jak @mira_network ramki przedstawiają problem niezawodności.

Dlaczego Mira przekształca niezawodność AI w system ekonomiczny oparty na kryptowalutach

Kiedyś myślałem, że sposób na uczynienie AI niezawodnym polega po prostu na poprawie modelu, dłuższym treningu, dodawaniu większej ilości danych, poprawie architektury; jeśli model stanie się wystarczająco inteligentny, błędy w końcu znikną.

Ale prawdziwe systemy rzadko zachowują się w ten sposób.

W większości złożonych systemów niezawodność nie pochodzi z doskonałości, lecz z struktury; rynki finansowe polegają na zachętach, sieci rozproszone polegają na niezależnych walidatorach, a nawet nauka zależy od innych ludzi weryfikujących pracę.

Ten wzór zaczyna się pojawiać w tym, jak @Mira - Trust Layer of AI ramki przedstawiają problem niezawodności.
Odcinek 3, znowu to samo $USDC pool thanks binance 😁😁😁🙈
Odcinek 3, znowu to samo $USDC pool thanks binance 😁😁😁🙈
Tak, muszą poprawić swoją pracę, aby nie być oszustami, ja również się z tym zmagam 😡😡🐒👈
Tak, muszą poprawić swoją pracę, aby nie być oszustami, ja również się z tym zmagam 😡😡🐒👈
Blind_Soul
·
--
EP4 S1 Seria (Zespół Dirty Paid)
p zostawiłem trochę na sezon 2 i 3 ..ciesz się huh
to jest sposób na stworzenie dobrego wysokiego contentu
huh ona się boi 😂😂😂 i zmieniła na następnego Agenta
@Binance Customer Support @BinanceCIS
Obserwuję, jak roboty stają się coraz mądrzejsze z każdym rokiem. Mogą przenosić towary, kontrolować maszyny, a nawet podejmować decyzje samodzielnie. Jednak coś w tym zawsze wydaje się niekompletne. Robot może wykonać pracę, ale zazwyczaj nie może otrzymać wynagrodzenia. Wszystko wciąż przebiega przez firmy lub platformy ponad maszyną. Fabric bada inny pomysł, dając robotom tożsamość on-chain i portfele, aby mogły otrzymywać płatności i bezpośrednio interagować z sieciami. Gdy maszyny będą mogły transakcjonować samodzielnie, automatyzacja zacznie wyglądać mniej jak narzędzia, a bardziej jak uczestnicy wspólnego systemu ekonomicznego. $ROBO #ROBO @FabricFND
Obserwuję, jak roboty stają się coraz mądrzejsze z każdym rokiem.

Mogą przenosić towary, kontrolować maszyny, a nawet podejmować decyzje samodzielnie.

Jednak coś w tym zawsze wydaje się niekompletne.

Robot może wykonać pracę, ale zazwyczaj nie może otrzymać wynagrodzenia.

Wszystko wciąż przebiega przez firmy lub platformy ponad maszyną.

Fabric bada inny pomysł, dając robotom tożsamość on-chain i portfele, aby mogły otrzymywać płatności i bezpośrednio interagować z sieciami.

Gdy maszyny będą mogły transakcjonować samodzielnie, automatyzacja zacznie wyglądać mniej jak narzędzia, a bardziej jak uczestnicy wspólnego systemu ekonomicznego.

$ROBO #ROBO @Fabric Foundation
Dlaczego roboty potrzebują portfeli. Ekonomiczna warstwa Fabric buduje.Ciągle dostrzegam coś dziwnego, gdy ludzie rozmawiają o robotyce. Większość rozmowy dotyczy inteligencji, lepszych modeli, lepszego sprzętu, szybszego podejmowania decyzji. Ale jest jeszcze jedno ograniczenie, które cicho siedzi w tle. Roboty mogą pracować, ale zazwyczaj nie mogą otrzymywać wynagrodzenia. Pomyśl o tym, jak działa automatyzacja dzisiaj. Robot może przenosić paczki po podłodze magazynu lub skanować sprzęt w fabryce. Wykonuje zadanie, ale gdy praca jest zakończona, sama maszyna nic nie otrzymuje. Płatność trafia do firmy prowadzącej system.

Dlaczego roboty potrzebują portfeli. Ekonomiczna warstwa Fabric buduje.

Ciągle dostrzegam coś dziwnego, gdy ludzie rozmawiają o robotyce.

Większość rozmowy dotyczy inteligencji, lepszych modeli, lepszego sprzętu, szybszego podejmowania decyzji.

Ale jest jeszcze jedno ograniczenie, które cicho siedzi w tle.

Roboty mogą pracować, ale zazwyczaj nie mogą otrzymywać wynagrodzenia.

Pomyśl o tym, jak działa automatyzacja dzisiaj. Robot może przenosić paczki po podłodze magazynu lub skanować sprzęt w fabryce. Wykonuje zadanie, ale gdy praca jest zakończona, sama maszyna nic nie otrzymuje. Płatność trafia do firmy prowadzącej system.
Sprawdzam @mira_network i jedna idea wciąż się wyróżnia. Większość systemów AI zakłada, że sam model musi być doskonały. Ale Mira traktuje problem inaczej. Kiedy pojawia się odpowiedź AI, system może rozbić ją na mniejsze twierdzenia i pozwolić kilku niezależnym modelom ocenić to samo stwierdzenie. Zamiast ufać jednemu wynikowi, sieć porównuje kilka perspektyw. Ta prosta zmiana zmienia logikę. AI nie musi być bezbłędne, jeśli jego odpowiedzi mogą być weryfikowane przez inne systemy. Czasami niezawodność pochodzi mniej z inteligencji, a bardziej z tego, jak system sam się kontroluje. $MIRA #Mira @mira_network
Sprawdzam @Mira - Trust Layer of AI i jedna idea wciąż się wyróżnia.

Większość systemów AI zakłada, że sam model musi być doskonały.

Ale Mira traktuje problem inaczej.

Kiedy pojawia się odpowiedź AI, system może rozbić ją na mniejsze twierdzenia i pozwolić kilku niezależnym modelom ocenić to samo stwierdzenie.

Zamiast ufać jednemu wynikowi, sieć porównuje kilka perspektyw.

Ta prosta zmiana zmienia logikę.

AI nie musi być bezbłędne,
jeśli jego odpowiedzi mogą być weryfikowane przez inne systemy.

Czasami niezawodność pochodzi mniej z inteligencji,
a bardziej z tego, jak system sam się kontroluje.

$MIRA #Mira @Mira - Trust Layer of AI
Dlaczego Mira traktuje błędy AI jako problem systemowyCiągle zauważam, że gdy systemy AI popełniają błędy, zwykle odpowiedzią jest poprawa samego modelu, dłuższe szkolenie, dodanie większej ilości danych, dostosowanie wyrównania. Założenie jest takie, że niezawodność ostatecznie się pojawi, jeśli model stanie się wystarczająco zdolny. Ale niezawodność nie zawsze tkwi w modelu. Systemy AI są z definicji probabilistyczne, nawet silne modele mogą generować pewne odpowiedzi, które są niekompletne, stronnicze lub po prostu błędne; w wielu przypadkach prawdziwym problemem nie jest inteligencja, ale to, jak system decyduje, czy odpowiedź powinna być ufna.

Dlaczego Mira traktuje błędy AI jako problem systemowy

Ciągle zauważam, że gdy systemy AI popełniają błędy, zwykle odpowiedzią jest poprawa samego modelu, dłuższe szkolenie, dodanie większej ilości danych, dostosowanie wyrównania. Założenie jest takie, że niezawodność ostatecznie się pojawi, jeśli model stanie się wystarczająco zdolny.

Ale niezawodność nie zawsze tkwi w modelu.

Systemy AI są z definicji probabilistyczne, nawet silne modele mogą generować pewne odpowiedzi, które są niekompletne, stronnicze lub po prostu błędne; w wielu przypadkach prawdziwym problemem nie jest inteligencja, ale to, jak system decyduje, czy odpowiedź powinna być ufna.
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy