Niedawno spędziłem popołudnie, próbując skłonić sztuczną inteligencję do pomocy w sporządzeniu wrażliwego dokumentu prawnego, i to była całkowita katastrofa. Wciąż wymyślała prawo precedensowe, które nie istniało, patrząc mi prosto w cyfrowe oczy podczas tego. To był moment, w którym zdałem sobie sprawę, że chociaż te modele są genialne w mówieniu, są okropne w byciu poprawnym. Wszyscy żyjemy w tej dziwnej erze, w której mamy najpotężniejszą bibliotekę świata na wyciągnięcie ręki, ale połowa książek wypełniona jest kłamstwami. Dlatego zacząłem przyglądać się Mirze. Z perspektywy użytkownika, wydaje się, że to bardzo potrzebne sprawdzenie rzeczywistości dla internetu. Zamiast po prostu przyjmować na wiarę słowa chatbota, system rozkłada skomplikowane pisanie na małe, indywidualne twierdzenia. To jak zabranie podejrzanego samochodu do pięciu różnych mechaników jednocześnie, aby zobaczyć, czy wszyscy znajdą tę samą nieszczelność silnika. Jeśli się nie zgadzają, twierdzenie zostaje oznaczone. Przestaje chodzić o jeden „boski” model i zaczyna chodzić o społeczność różnych perspektyw AI sprawdzających wzajemnie swoją pracę. To trochę jak ława przysięgłych dla informacji. Musimy zmierzyć się z faktem, że „ślepe zaufanie pojedynczej sieci neuronowej to przepis na cyfrową katastrofę”. Mira zmienia dynamikę, upewniając się, że żaden pojedynczy podmiot nie może kierować prawdą. Daje mi możliwość rzeczywistej weryfikacji matematyki lub faktów, zanim naciśniesz przycisk wysyłania czegoś ważnego. Chodzi mniej o wymyślną technologię, a bardziej o upewnienie się, że narzędzia, których używamy na co dzień, nie zawiodą nas, gdy to ma znaczenie. Sprawia, że czuję, że w końcu mam siatkę bezpieczeństwa.

$MIRA #Mira @Mira - Trust Layer of AI