Ciągle myślę o tym, jak większość systemów AI próbuje rozwiązać problem niezawodności. #Mira
Zwykle odpowiedź jest prosta: zbudować mniejszy model.
Ale co jeśli prawdziwym problemem nie jest inteligencja?
Co @Mira - Trust Layer of AI bada, to inna struktura, zamiast ufać odpowiedzi jednego modelu, system pozwala wielu niezależnym modelom przeglądać tę samą tezę i porównywać wyniki.
Interesującą częścią jest to, co dzieje się następnie.
Weryfikatorzy stawiają $MIRA , aby wziąć udział.
Uczciwa weryfikacja przynosi nagrody.
Nieuczciwe zachowanie wiąże się z ryzykiem utraty tej stawki.
Tak więc niezawodność przestaje być cechą modelu.
Staje się czymś, co system egzekwuje ekonomicznie.
AI nie musi być doskonałe,
jeśli sieć ma powód, by je sprawdzić.
Czasami prawda staje się silniejsza,
gdy zachęty zaczynają ją chronić.

