Jack Kong, dyrektor generalny Nano Labs, opublikował na X informacje o rozwijającym się krajobrazie technologii AI, podkreślając, że najważniejszymi zasobami w erze AI są pamięć i zdolności myślenia abstrakcyjnego. Zwrócił uwagę na intrygujący projekt architektoniczny, który łączy lokalną pamięć z chmurowymi modelami językowymi (LLM). Kluczowa logika tego projektu polega na tym, że pamięć, jako istotny cyfrowy zasób dla jednostek, nie powinna być całkowicie powierzona chmurze.

Ten projekt, który podąża za sekwencją danych wejściowych do pamięci lokalnej, warstwy filtrującej, chmury LLM, audytu i wyjścia, zasadniczo konstruuje zdecentralizowany osobisty system AI. W tym systemie pełna pamięć jest przechowywana lokalnie, podczas gdy chmura przetwarza tylko przefiltrowany kontekst. Takie podejście jest zgodne z podstawowymi zasadami Web3, które postulują zwrot suwerenności danych jednostkom.

Kong sugeruje, że przyszłość infrastruktury AI może zobaczyć szerokie zastosowanie takich hybrydowych architektur, gdzie dane osobowe są zarządzane lokalnie, a tylko niezbędne informacje są przetwarzane w chmurze. Ten model mógłby zdefiniować na nowo, jak są strukturalizowane systemy AI, zapewniając większą kontrolę i prywatność dla użytkowników.