Zanim AI podejmie decyzje, ktoś musi sprawdzić wyjście — to sieć Mira
Większość ludzi korzysta z AI w bardzo prosty sposób.
Zadajesz pytanie. AI daje odpowiedź.
Potem przechodzisz dalej.
Ale kiedy zacząłem czytać o @Mira - Trust Layer of AI , zrozumiałem, że patrzą na AI w inny sposób. Zamiast traktować odpowiedzi AI jako ostateczny wynik, Mira traktuje je jako punkt wyjścia procesu. Pomyśl, jak większość aplikacji korzysta z AI dzisiaj. Model generuje odpowiedź, a aplikacja po prostu ją akceptuje. Jeśli odpowiedź jest błędna lub niekompletna, błąd przepływa bezpośrednio do aplikacji.
To tam $MIRA próbuje czegoś nowego. Ich pomysł polega na umieszczeniu warstwy weryfikacyjnej pomiędzy AI a aplikacjami. Gdy AI generuje informację, sieć może ją sprawdzić, przetworzyć i dopiero wtedy przekazać dalej. To przekształca wyjście AI w coś bardziej strukturalnego i wiarygodnego. Inną interesującą częścią jest to, jak deweloperzy mogą budować modułowe przepływy pracy AI. Na przykład, jeden model mógłby generować dane, sieć Mira mogłaby weryfikować pewne twierdzenia, a inny system mógłby wykorzystać zweryfikowany wynik do podejmowania decyzji. Zamiast jednego modelu robiącego wszystko, proces staje się warstwowy i programowalny. W wielu aspektach przypomina mi to, jak rozwijały się nowoczesne systemy oprogramowania.