Mira wydaje się być stworzona dla świata, który jest zmęczony zgadywaniem, czy maszyny kłamią.
Większość czasu traktujemy wyniki AI jak sugestie.
Brzmią pewnie.
Wyglądają na uporządkowane.
Często czują się wystarczająco dobrze, aby iść naprzód.
I to jest w porządku—aż do momentu, gdy koszt pomyłki przestaje być abstrakcyjny.
W pewnym momencie każdy system oparty na sztucznej inteligencji napotyka tę samą przeszkodę: przestajesz pytać „czy to jest przydatne?” i zaczynasz pytać „czy mogę to udowodnić, że to jest poprawne?”
To jest problem, w który Mira zdaje się wchodzić.
Nie wydajność.
Nie prędkość.
Nie rozmiar modelu.
Zaufanie.
Nowoczesna sztuczna inteligencja jest imponująca, ale jest również nieprzewidywalna. Ten sam system, który perfekcyjnie podsumowuje dokument, może pięć minut później wymyślić cytat. Ten sam model, który rozwiązuje problem matematyczny, może pewnie wynaleźć krok, który nie istnieje. W kontekście niskiego ryzyka to denerwujące. W sytuacjach wysokiego ryzyka—finanse, prawo, infrastruktura, medycyna—jest to nie do przyjęcia.