AI nie powinno kłamać, ale to robi, a $MIRA Sieć próbuje to naprawić
Czasami siedzę i myślę, jak bardzo ufamy AI teraz. Pisze, odpowiada, przewiduje, ale szczerze mówiąc, wiele razy po prostu mówi błędne rzeczy z pełną pewnością. Halucynacje, dziwne odpowiedzi. Pytasz o coś prostego, a system brzmi mądrze, ale informacja jest w połowie zepsuta. To trochę mnie przeraża. Wyobraź sobie szpitale, systemy finansowe lub roboty zależne od tych rzeczy.
Mira Network wygląda na to, że ktoś w końcu zauważył ten bałagan. Pomysł nie polega tylko na lepszym AI, ale na jego weryfikacji. Ich infrastruktura przypomina warstwę kontrolną dla wyników AI. Zamiast ufać jednemu modelowi, Mira dzieli odpowiedź na małe twierdzenia i wysyła je do różnych modeli AI. Te modele weryfikują się nawzajem, a wynik jest blokowany poprzez konsensus blockchain. Brak centralnej kontroli decydującej o prawdzie.
To, co uważam za interesujące, to ekonomiczny bodziec w ramach infrastruktury Mira. Modele walidatorów i węzłów są nagradzane za udowodnienie poprawności rzeczy. Jeśli AI mówi bzdury, to jest odrzucane.
Teraz wydaje się, że świat jest chaotyczny, ale może takie systemy jak Mira powstrzymają AI od stawania się pewnym kłamcą. Szczerze mówiąc, prawdopodobnie tego potrzebujemy.
#mira @Mira - Trust Layer of AI $MIRA
