Przeformułowanie niezawodności AI poprzez model rozproszonej weryfikacji Miri
Od lat rozmowa na temat sztucznej inteligencji koncentruje się niemal wyłącznie na zdolności: większe modele, szybsza inferencja, więcej danych i coraz bardziej imponujące wyniki, które wydają się, przynajmniej na powierzchni, zbliżone do ludzkiego rozumowania. Jednak pod tym szybkim postępem kryje się cichsze i trudniejsze pytanie, z którym branża dopiero niedawno zaczęła się poważnie zmierzyć: jak określić, kiedy system AI jest naprawdę godny zaufania? Nie tylko przekonujący, nie tylko pewny siebie, ale niezawodny w sposób, na którym instytucje, rynki i krytyczna infrastruktura mogą polegać bez wahania.