Kiedy dowód, a nie zaufanie, jest potrzebny do decyzji AI
Nie mogę przestać myśleć o czasie, kiedy regulator poprosił o zobaczenie całej trasy, a nie tylko podsumowania lub wyniku, jak ten AI doszedł do swojego wniosku. To zdarza się w finansach podczas audytów, sporów i przeglądów sądowych, a jednak większość systemów została zaprojektowana z myślą o prędkości, a nie odpowiedzialności. Dane są wprowadzane, wyniki są generowane, a dopiero później zespoły stosują kontrole, zatwierdzenia i regulacje dotyczące prywatności. Sprawia to wrażenie, że zarządzanie jest ustalone, gdy maszyna działa, zamiast być zintegrowane od samego początku.
Ponieważ podchodzi do weryfikacji jak do infrastruktury, a nie marketingu, Mira Network jest unikalna. Zamiast bronić czarnej skrzynki, zespoły mogą odwoływać się do procesu, dzieląc wyniki AI na odrębne twierdzenia, które można zweryfikować przed podjęciem działania. Weryfikacja nadal wymaga pieniędzy, czasu i mocy obliczeniowej. Wiele firm może unikać ugody, jeśli spowalnia to proces lub raportowanie staje się trudniejsze. Wygoda wciąż będzie dominować w codziennych produktach, ale myślę, że ten paradygmat najlepiej działa w sytuacjach, w których ryzyko i odpowiedzialność są wysokie, takich jak automatyczne raportowanie i regulowana zgodność fintech.@Mira - Trust Layer of AI #Mira $MIRA
