Zauważyłem coś prostego, gdy rozmawiam z ludźmi o AI. Większość z nich tak naprawdę nie obchodzi, jak to działa. Interesuje ich, czy wydaje się wiarygodne. Jeśli odpowiedź brzmi pewnie i przychodzi szybko, to zazwyczaj wystarczy. Dopiero później, gdy coś wydaje się nie tak lub stronnicze, pytania o kontrolę i autorytet zaczynają mieć znaczenie.
Tradycyjne modele AI są budowane wokół wyraźnego centrum. Jedna firma szkoli system, ustala granice, decyduje, co zostanie przefiltrowane, i wdraża aktualizacje, gdy to potrzebne. W tym jest pewien komfort. Jest zorganizowane. Jest wydajne. Jeśli model zachowuje się źle, istnieje adres, zespół kierowniczy, nazwa na drzwiach. Ale ta sama klarowność oznacza również, że wpływ jest skoncentrowany. Zasady systemu są kształtowane przez małą grupę, nawet jeśli ich intencje są dobre. Z biegiem czasu ta koncentracja cicho definiuje, co liczy się jako akceptowalna wiedza.
MIRA kieruje się w innym kierunku. Zamiast jednej władzy, polega na rozproszonym konsensie. To po prostu oznacza, że wielu niezależnych weryfikatorów przegląda i weryfikuje roszczenia przed ich zaakceptowaniem. Nikt nie kontroluje w pełni wyniku. Uważam, że ten pomysł jest interesujący, nie dlatego, że brzmi rewolucyjnie, ale dlatego, że zmienia zachęty. Gdy weryfikacja jest dzielona, władza jest mniej niewidoczna. Staje się czymś, co jest negocjowane.
Nadal jednak nie jestem przekonany, że decentralizacja jest automatycznie lepsza. Koordynacja wymaga czasu. Niezgody nie znikają. Model centralny może poruszać się szybko; model rozproszony porusza się ostrożnie. Może to jest prawdziwa różnica. Jeden optymalizuje pod kątem szybkości i kontroli. Drugi optymalizuje pod kątem odporności i wspólnego zaufania. A w zależności od tego, jakie błędy bardziej cię niepokoją, twoja odpowiedź może się zmienić.