Będę szczery, to dlatego coraz bardziej interesuję się alternatywnymi podejściami, takimi jak @Mira - Trust Layer of AI . Zmiana nie dotyczy lepszych pulpitów nawigacyjnych czy inteligentniejszych modeli. To kwestia architektury. Zamiast ujawniać surowe dane lub pełne wyniki AI, systemy redukują je do weryfikowalnych roszczeń. Kontrola zgodności staje się: „Ten podmiot spełnia wymagania”. Wynik AI staje się: „Ten wynik ryzyka został wygenerowany w tych zweryfikowanych warunkach.” Niezależni weryfikatorzy potwierdzają roszczenie bez przetwarzania podstawowego zbioru danych.
Weryfikacja oddziela się od ujawnienia.
Prywatność przestaje być czymś, co jest przymocowane do przechowywania i staje się wbudowane w sposób ustalania prawdy. Udowadniasz właściwości, a nie własność.
Ale model Mira opiera się na jednym niewygodnym pytaniu: czy regulatorzy zaakceptują dowody kryptograficzne i niezależnie weryfikowane wyniki AI zamiast nieograniczonego dostępu do danych?
Jeśli zaufanie nadal oznacza widoczność wszystkiego, model magazynu pozostaje.
Jeśli zaufanie może oznaczać weryfikowalną matematykę, w końcu redukujemy tarcia u źródła.
#Mira $MIRA

MIRA
0.0826
-0.36%
