Niezauważony aspekt: obecnie dynamicznie rozwijająca się sztuczna inteligencja może cierpieć z "etycznym amnezją".
Mówimy o przełomowych możliwościach AI, ale rzadko poruszamy głębokiego problemu: AI nie ma pamięci – mówiąc tu o pamięci sprawdzalnej i niemogącej zostać zmienionej. Model dzisiaj wykorzystuje Twoje dane do podejmowania decyzji, a jutro może całkowicie nie pamiętać, że "zjadł" te dane, a Ty nie będziesz miał żadnych wiarygodnych dowodów. Wynikiem jest zasłonięty algorytm, niekontrolowane wykorzystanie danych i niemożliwość audytu działania modelu. To jak techniczna amnezja, która uniemożliwia etyczne nadzorowanie.
Korzenie problemu mogą leżeć w sposobie przechowywania i zarządzania danymi. Tradycyjne, centralizowane magazyny danych przypominają ogromne mieszadło – dane wrzuca się, rozdrabnia, miesza, a ślady ich pochodzenia i przeznaczenia szybko się rozmywają. Potrzebujemy metody, która pozwoli na to, by "materiały do nauki" AI i jej "proces myślenia" były takie jak pierwotne notatki laboratoryjne – każda krok miała jasny, nieusunięty znak czasu i adnotację źródła.
Ciekawostką jest to, że protokół Walrus z możliwością programowania obiektów danych i ich zabezpieczenia na łańcuchu dokładnie nadaje się do budowy takiej podstawy. Wyobraź sobie: każda zestaw danych przekazanych do AI, gdy jest przechowywana w Walrus, otrzymuje unikalny "dokument tożsamości cyfrowej" – z dokładnym znakiem czasu i podpisem dostawcy, zapisanym na łańcuchu. Gdy model AI korzysta z tych danych do nauki, ten proces staje się transakcją na łańcuchu, trwale powiązaną z wersją modelu.
To oznacza, że w przyszłości, jeśli ktoś chce audytować decyzję AI, może tak jak sprawdzać publiczny rejestr, prześledzić dokładnie każdą pierwotną daną, którą model "zjadł", i zobaczyć jej dowód pochodzenia. Dostawcy danych mogą potwierdzić swój wkład, organy nadzoru mogą sprawdzić zgodność z przepisami, a użytkownicy, którzy doświadczyli niesprawiedliwości, będą mieli szansę śledzić źródło wyjściowe.
W tym sensie Walrus pełni rolę "etycznego księgowego" w erze sztucznej inteligencji. Nie przeszkadza w uczeniu się AI, ale zapewnia, że proces uczenia jest zapisany, a każda "konsumpcja" danych zostaje oznaczona odpowiedzialnym śladem.

