Kiedy rynek nadal działa poważnie i dąży do kontroli w odpowiednim czasie.
Ta dyskusja pomija rzeczywiste zagrożenia.
Nie mamy do czynienia z problemem "inteligentniejszego modelu".
Stajemy przed problemem weryfikacji strukturalnej.
Duże modele językowe nie przywracają prawdy.
Generują statystycznie obliczone wyniki.
Perswazja nie oznacza zdrowia.
Jedno wadliwe twierdzenie w ramach wieloetapowej odpowiedzi wystarczy, aby zanieczyścić późniejszą automatyzację.
Roboty handlowe.
Inteligentne kontrakty.
W finansach nazywamy to ekspozycją systemową.
Jednak większość projektów sztucznej inteligencji konkuruje na poziomie:
Większe parametry.
Krótszy czas oczekiwania.
Czystszy interfejs użytkownika.
Rzadko porusza się temat brakującej warstwy:
Kto weryfikuje każde twierdzenie atomowe?
Jeśli sztuczna inteligencja ma zasiadać w infrastrukturze finansowej,
to prawdopodobne wyniki bez weryfikacji na poziomie twierdzenia nie są innowacją.
#Mira nie próbuj wygrać wyścigu modeli.
Buduje warstwę zaufania.
Odpowiedzi są dzielone na twierdzenia atomowe.
Twierdzenia przechodzą przez wielomodelową weryfikację.
Bezpieczeństwo hybrydowe zmniejsza zależność od jednego źródła wiedzy.
To nie dotyczy wskaźników wydajności.
Chodzi o zmniejszenie ryzyka systemowego, zanim porażka stanie się nieunikniona.
Jeśli inwestujesz kapitał w narracje sztucznej inteligencji,
musisz zrozumieć, czy kupujesz zdolność
czy strukturę kontroli ryzyka i zarządzania tym w odpowiednim czasie i rzeczywistym.
@Mira - Trust Layer of AI #Mira
$MIRA
