Większość ludzi uważa, że problem z sztuczną inteligencją polega na tym, że popełnia błędy.

To nie jest prawdziwy problem.

Prawdziwy problem polega na tym, że sztuczna inteligencja popełnia błędy z pewnością.

Gdy system zawodzi w milczeniu, nie masz tylko problemu z błędem.

Masz problem z zarządzaniem.

W tradycyjnym oprogramowaniu, awaria jest widoczna.

System się zawiesza.

Wyrzucany jest wyjątek.

Tworzony jest log.

W systemach sztucznej inteligencji, awaria wygląda normalnie.

Wynik jest czysty.

Język jest uporządkowany.

Rozumowanie wydaje się spójne.

Nic nie sygnalizuje niebezpieczeństwa.

Dlatego dodawanie większej ilości danych treningowych nie jest pełnym rozwiązaniem.

A budowanie większego modelu nie jest strukturalną naprawą.

Problem jest architektoniczny.

Generacja i weryfikacja nie mogą być tym samym krokiem.

Jeśli ten sam system, który tworzy informacje, jest również tym, który je weryfikuje, to nie sprawdzamy niczego. Po prostu powtarzamy to samo założenie dwa razy.

Niezawodny pipeline oddziela władzę od nadzoru.

Mira jest zbudowana wokół tej zasady.

Generacja zachodzi raz.

Weryfikacja zachodzi wielokrotnie.

Niezależne węzły oceniają poszczególne roszczenia.

Tworzy się konsensus.

Niezgoda jest rejestrowana.

Rezultatem nie jest doskonałość.

Rezultatem jest odpowiedzialność.

A odpowiedzialność skaluje się lepiej niż pewność.

W finansach, medycynie, prawie i infrastrukturze, nie wdrażamy systemów, ponieważ brzmią inteligentnie.

Wdrażamy systemy, ponieważ możemy je audytować.

Sztuczna inteligencja nie stanie się godna zaufania, ponieważ stanie się mądrzejsza.

Stanie się godna zaufania, gdy stanie się możliwa do śledzenia.

A możliwość śledzenia istnieje tylko wtedy, gdy weryfikacja jest wbudowana w architekturę, a nie dodawana jako myśl po fakcie.

Pewność jest łatwa do wygenerowania.

Obrona jest zaprojektowana.

@Mira - Trust Layer of AI

$MIRA #mira #MIRA