Wyobraź sobie, że prosisz jednego lekarza o radę — a następnie pytasz pięciu lekarzy, aby omówili to razem, zanim udzielą ci ostatecznej odpowiedzi.
Jedna opinia może być mądra.
Ale sprawdzona, uzgodniona decyzja jest zazwyczaj silniejsza i bezpieczniejsza.
Co jeśli AI nie polegałoby na jednej odpowiedzi, ale na zgodzie?
Ostatnio zajmowałem się Mirą i podkreśla ona coś większego niż tylko lepsze wyniki AI. Większość systemów AI dzisiaj daje ci odpowiedź jednego modelu i to wszystko. Mira buduje warstwę zaufania, gdzie wiele modeli AI analizuje to samo pytanie, komunikuje się i tylko weryfikuje odpowiedź, gdy osiągnięta zostanie zgoda.
To jak przestawienie się z „zaufaj jednemu mądremu przyjacielowi” na „pozwól grupie mądrych przyjaciół sprawdzić się wzajemnie.” Narzędzia takie jak Klok traktują już modele jako niezależnych agentów, którzy muszą się zgrać, zanim zaufanie zostanie ustanowione.
W dłuższej perspektywie to wydaje się strukturalnie silniejsze. Zamiast polegać na jednym modelu (który może być stronniczy lub błędny), zmierzamy w kierunku systemów AI, które ciągle weryfikują i korygują się nawzajem. To potężne w finansach, badaniach, zarządzaniu wszędzie tam, gdzie niezawodność ma znaczenie.
Moje zdanie: AI jako samosprawdzająca się sieć dostosowuje zachęty do dokładności i prawdy w czasie.
Czy ufałbyś skoordynowanej grupie AI bardziej niż jednemu superinteligentnemu modelowi?
