Próbowałem zadać systemowi kilka pytań, na które już znałem odpowiedzi.
Nic skomplikowanego. Po prostu tematy, w których mały błąd byłby łatwy do zauważenia.
Pierwszą rzeczą, którą zauważyłem, było to, że odpowiedź nie pojawiła się od razu. Była krótka przerwa przed pojawieniem się ostatecznej odpowiedzi. Na początku założyłem, że to po prostu normalne opóźnienie. Ale okazało się, że dzieje się coś innego.
Zamiast generować jedną odpowiedź i przechodzić dalej, system dzielił odpowiedź na mniejsze twierdzenia i je sprawdzał. Różne modele przeglądały te fragmenty, zanim pojawiła się ostateczna wersja.
To mały szczegół, ale zmienia odczucie interakcji. Większość narzędzi AI daje ci odpowiedzi, które wyglądają bardzo starannie. Czyste akapity. Pewne wyjaśnienia. Niezależnie od tego, czy odpowiedź jest całkowicie poprawna, czy nieco błędna, prezentacja zazwyczaj wygląda tak samo.
Tutaj odpowiedź wydawała się, jakby była analizowana więcej niż raz, zanim do mnie dotarła.
To się wyróżnia. Mira nie wydaje się skupiona na uczynieniu jednego modelu mądrzejszym. Chodzi bardziej o to, aby nie polegać tylko na jednym modelu w pierwszej kolejności. Poszczególne twierdzenia są sprawdzane przez wielu uczestników, a zapis weryfikacji trafia na łańcuch.
Jeśli spędziłeś czas w systemach kryptograficznych, pomysł wydaje się znajomy. Nie zaufanie. Weryfikacja.
Nie powiedziałbym, że to szybsze. Właściwie jest trochę wolniejsze. Ale kompromis jest interesujący. Zamiast uzyskać najszybszą możliwą odpowiedź, otrzymujesz coś, co już przeszło przez małą warstwę przeglądu.
A gdy wyniki AI zaczynają wpływać na rzeczywiste decyzje, ten dodatkowy krok może być ważniejszy, niż nam się wydaje.
