Nowy odcinek tego tygodnia omawia zbieżność dwóch ważnych i aktualnych trendów: sztucznej inteligencji oraz łańcuchów bloków/kryptowalut. Te dziedziny, razem biorąc, mają istotne konsekwencje w naszym życiu codziennym; dlatego ten odcinek jest idealny dla tych, którzy mają ciekawość lub już rozwijają ten sektor. Rozmowa obejmuje tematy od deepfakes, botów i potrzeby dowodu ludzkości w świecie sztucznej inteligencji, przez big data, duże modele językowe takie jak ChatGPT, kontrolę użytkowników, zarządzanie, prywatność i bezpieczeństwo, wiedzę zero oraz zkML, aż po MEV, media, sztukę i wiele więcej.

Wśród naszych gości-ekspertów, w rozmowie z prowadzącą Sonal Chokshi, znaleźli się:

  • Dan Boneh, profesor ze Stanford (i starszy doradca badawczy w a16z crypto), kryptograf, który od ponad dekady zajmuje się blockchainami i specjalizuje się w kryptografii, bezpieczeństwie komputerowym i uczeniu maszynowym – wszystkie te zagadnienia przecinają się w tym odcinku;

  • Ali Yahya, wspólnik generalny a16z crypto, wcześniej pracował w Google, gdzie zajmował się nie tylko rozproszonym systemem dla floty robotów (rodzaj „zbiorowego uczenia się przez wzmacnianie”), ale także pracował nad Google Brain, będąc jednym z głównych współautorów biblioteki uczenia maszynowego TensorFlow stworzonej w Google.

Pierwsza część nieformalnej rozmowy Aliego i Dana (którzy znają się jako studenci i profesorowie na Uniwersytecie Stanforda) koncentruje się na tym, jak sztuczna inteligencja mogłaby skorzystać z kryptowalut, a druga – jak kryptowaluty mogłyby skorzystać ze sztucznej inteligencji. Wspólnym mianownikiem jest napięcie między centralizacją a decentralizacją. Dlatego analizujemy również, jak połączenie kryptowalut i sztucznej inteligencji może przynieść rezultaty, które nie byłyby możliwe bez nich.

Fragmenty wspomniane w tym odcinku/powiązanej lekturze:

  • Kolejny system rozumowania cybernetycznego dla cyberbezpieczeństwa (2023) autorstwa Mohameda Ferraga, Ammara Battaha, Norberta Tihanyiego, Merouane Debbah, Thierry’ego Lestable’a i Lucasa Cordeiro

  • Nowa era w bezpieczeństwie oprogramowania: w kierunku samonaprawiającego się oprogramowania dzięki rozszerzonym modelom językowym i formalnej weryfikacji (2023) autorstwa Yiannisa Charalambousa, Norberta Tihanyi, Ridhi Jaina, Youchenga Suna, Mohameda Ferraga i Lucasa Cordeiro

  • Naprawa błędów zabezpieczeń sprzętu z wykorzystaniem rozbudowanych modeli językowych (2023) autorstwa Baleegh Ahmad, Shailji Thakur, Benjamina Tana, Ramesha Karri i Hammonda Pearce’a

  • Czy użytkownicy piszą mniej bezpieczny kod z asystentami AI? (2022) autorstwa Neila Perry’ego, Meghy Srivastavy, Deepaka Kumara i Dana Boneha

  • Zasnąłeś przy klawiaturze? Ocena bezpieczeństwa kodu w GitHub Copilot (2021) autorstwa Hammonda Pearce'a, Baleegh Ahmad, Benjamina Tana, Brendana Dolana-Gavitta i Ramesha Karriego

  • Głosowanie, bezpieczeństwo i zarządzanie w blockchainach (2019) z Alim Yahyą i Philem Daianem

TRANSKRYPCJA:

Witamy w programie „web3 with a16z”, programie o budowaniu internetu nowej generacji, prowadzonym przez zespół a16z, w którego skład wchodzi ja oraz Sonal Chokshi, Wasza prowadząca. Dzisiejszy nowy odcinek porusza temat zbieżności dwóch ważnych, przełomowych trendów: sztucznej inteligencji (AI) i kryptowalut. Ma to istotne implikacje dla naszego codziennego życia, dlatego ten odcinek jest przeznaczony dla każdego, kto jest ciekawy tej dziedziny lub już się w niej rozwija.

Naszymi gośćmi specjalnymi są dziś: Dan Boneh, profesor ze Stanford (i starszy doradca badawczy w a16z crypto). Jest kryptografem, który od ponad dekady zajmuje się technologiami blockchain. Tematy poruszane w tym odcinku ściśle łączą kryptografię, cyberbezpieczeństwo i uczenie maszynowe – wszystkie jego obszary specjalizacji. Gościmy również Alego Yahyę, wspólnika generalnego w a16z crypto, który również pracował w Google, gdzie nie tylko opracował rozproszony system robotyki (a konkretnie rodzaj „zbiorowego uczenia się przez wzmacnianie”, który polegał na trenowaniu pojedynczej sieci neuronowej, która przyczyniała się do działań całej floty robotów), ale także pracował nad Google Brain, gdzie był głównym współtwórcą biblioteki uczenia maszynowego TensorFlow. W rzeczywistości Dan i Ali znają się od czasów studiów licencjackich i magisterskich Aliego na Stanford, więc ta rozmowa jest raczej nieformalną pogawędką między nimi, do której zaprosiłem. Poruszamy wszystko, od deepfake'ów i botów po dowodzenie człowieczeństwa w świecie sztucznej inteligencji i wiele, wiele więcej.

Pierwsza część dotyczy korzyści, jakie sztuczna inteligencja mogłaby odnieść z kryptowalut, a druga – korzyści, jakie kryptowaluty mogłyby odnieść ze sztucznej inteligencji. Wspólnym mianownikiem jest napięcie między centralizacją a decentralizacją. Przypominamy: niczego z poniższych informacji nie należy interpretować jako porady inwestycyjnej, prawnej, biznesowej ani podatkowej; więcej ważnych informacji, w tym link do listy naszych inwestycji, można znaleźć na stronie a16z.com/disclosures, zwłaszcza że jesteśmy inwestorami w firmach wymienionych w tym odcinku. Ale najpierw: zaczynamy od skrzyżowania obu światów, krótko omawiając obszary (lub wizje!), które ich fascynują; pierwszym głosem, który usłyszysz, będzie głos Alego.

Ali: Jest naprawdę dobra powieść science fiction Neala Stephensona pt. „Diamentowy wiek”, w której pojawia się urządzenie znane jako „Instrukcja ilustrowana”. Jest to rodzaj urządzenia wyposażonego w sztuczną inteligencję, które pełni rolę mentora i nauczyciela przez całe życie.

A potem, gdy się rodzisz, zostajesz połączony ze sztuczną inteligencją, która zasadniczo zna cię bardzo dobrze, uczy się twoich preferencji, podąża za tobą przez całe życie, pomaga ci podejmować decyzje i prowadzi cię we właściwym kierunku.

Istnieje więc przyszłość rodem z science fiction… w której można by zbudować sztuczną inteligencję, ale nie chciałoby się, żeby kontrolował ją monopolistyczny gigant technologiczny. Ponieważ taka sytuacja dawałaby tej firmie zbyt dużą kontrolę, a do tego dochodzą kwestie prywatności i suwerenności, więc chciałoby się mieć nad nią jakąś kontrolę.

A co, jeśli firma zniknie, zmieni zasady lub ceny? Fantastycznie byłoby stworzyć sztuczną inteligencję, która mogłaby działać przez bardzo długi czas i poznawać cię przez całe twoje życie, ale która byłaby naprawdę twoja.

Istnieje też wizja, w której można to zrobić za pomocą blockchaina: można zintegrować sztuczną inteligencję ze inteligentnym kontraktem.

Dzięki dowodom zerowej wiedzy możesz także zachować prywatność swoich danych.

A potem, z upływem dekad, ta sztuczna inteligencja będzie mogła stać się mądrzejsza i pomagać ci, a wtedy będziesz mieć możliwość zrobienia z nią, co zechcesz. Albo zmodyfikowania jej według własnego uznania, albo dezaktywowania.

To ciekawa, długoterminowa wizja sztucznej inteligencji, która stale się rozwija i staje się lepsza: byłoby lepiej, gdyby nie była kontrolowana przez jedną, scentralizowaną firmę.

Jasne: to pomysł rodem z science fiction, ponieważ wiąże się z wieloma problemami, w tym z weryfikacją i zachowaniem prywatności danych za pomocą kryptografii, a także z koniecznością wykonywania obliczeń na tych danych, być może z wykorzystaniem w pełni homomorficznego szyfrowania. <Sonal: mhm> Wszystkie te problemy pozostają, ale nie jest to nie do pomyślenia.

Dan: Wow! Uwielbiam wizję Ali!

Sonal: Mnie też się podoba, zwłaszcza biorąc pod uwagę cytat (chyba Asimova), że dzisiejsza fantastyka naukowa to jutrzejsza nauka oparta na faktach.

Ali, wiem, że masz meta-ramy do myślenia o tym wszystkim, którymi się dzieliłeś już wcześniej. Czy możesz się nimi podzielić również teraz?

Ali: Tak, istnieje szersza narracja, która istnieje już od dłuższego czasu i teraz jest znacznie bardziej podkreślana wraz z rozwojem takich rzeczy jak studia LLM.

Sonal: Tak naprawdę, Ali, zdefiniuj to bardzo szybko, dla słuchaczy, którzy jeszcze nie są z tym zaznajomieni, dla kontekstu.

Ali: LLM to skrót od „large language model” (model dużego języka) i wykorzystuje technologię opracowaną w Google w 2017 roku. Istnieje słynny artykuł znany pod tytułem „Attention Is All You Need” (taki był tytuł artykułu), w którym opisano to, co obecnie nazywamy transformatorami. To właśnie one stanowią podstawę niektórych nowych modeli, które ludzie obecnie trenują, w tym ChatGPT itp. Wszystkie te modele to duże języki, czyli LLM.

<Sonal: ¡mmm!> #BTC

Był taki słynny cytat, zdaje się (2018) Petera Thiela: „Sztuczna inteligencja jest komunistyczna, a kryptowaluty libertariańskie”. Jest on zresztą bardzo trafny, ponieważ sztuczna inteligencja i kryptowaluty pod wieloma względami naturalnie się równoważą. <Sonal: Aha? I być może możemy głębiej przeanalizować każdy z tych przykładów w podcaście, <Sonal: Tak. Ale są cztery główne aspekty, w których to stwierdzenie jest prawdziwe:

[1] Po pierwsze, sztuczna inteligencja to technologia, która rozwija się dzięki scentralizowanej, odgórnej kontroli i ją umożliwia, podczas gdy kryptografia opiera się na zdecentralizowanej, oddolnej współpracy. W rzeczywistości, pod wieloma względami, kryptografię można postrzegać jako naukę o budowaniu zdecentralizowanych systemów, które umożliwiają współpracę międzyludzką na dużą skalę, bez centralnego punktu kontroli.

I to jest naturalny sposób, w jaki te dwie technologie wzajemnie się równoważą.

[2] Innym argumentem jest to, że sztuczna inteligencja to zrównoważona innowacja, ponieważ wzmacnia modele biznesowe istniejących firm technologicznych <Sonal: mhm>, pomagając im podejmować decyzje na najwyższych szczeblach. Najlepszym przykładem jest to, że Google może decydować, jaką reklamę wyświetlić każdemu ze swoich użytkowników spośród miliardów użytkowników i miliardów wyświetleń stron.

Chociaż kryptowaluty są w rzeczywistości fundamentalnie rewolucyjną innowacją, ponieważ ich model biznesowy jest zasadniczo sprzeczny z modelem Big Tech. Zatem jest to ruch kierowany przez buntowników/sektory peryferyjne, a nie przez ugruntowane firmy. <Sonal: mhm> To jest drugi powód.

[3] Trzeci punkt jest taki, że sztuczna inteligencja prawdopodobnie będzie ściśle powiązana i będzie oddziaływać na wszystkie trendy związane z prywatnością… Ponieważ sztuczna inteligencja, jako technologia, zawiera w sobie wszelkiego rodzaju bodźce, które prowadzą nas do mniejszej prywatności jednostki, ponieważ będziemy mieli firmy, które będą chciały mieć dostęp do wszystkich naszych danych; a modele sztucznej inteligencji trenowane na stale rosnących ilościach danych będą stawać się coraz wydajniejsze. Dlatego myślę, że prowadzi nas to ścieżką panoptikonu sztucznej inteligencji, gdzie dane wszystkich są po prostu agregowane w celu trenowania tych ogromnych modeli i optymalizacji ich do maksimum.

Kryptowaluty prowadzą nas w przeciwnym kierunku, w stronę większej prywatności jednostki. To kierunek większej suwerenności, w którym użytkownicy mają kontrolę nad swoimi danymi. Myślę, że te dwa trendy będą bardzo ważne. To kolejny ważny sposób, w jaki kryptowaluty działają jako przeciwwaga dla sztucznej inteligencji.

(4) A ostatnia rzecz ma związek z najnowszym trendem w dziedzinie sztucznej inteligencji: faktem, że sztuczna inteligencja jest obecnie niewątpliwie potężną technologią służącą do generowania nowej sztuki; jest teraz narzędziem twórczym <Sonal: mm! całkowicie>, co doprowadzi nas do nieskończonego bogactwa mediów, do nieskończonej kreatywności na wiele sposobów.

Kryptografia stanowi przeciwwagę dla tego zjawiska, ponieważ pomaga nam analizować całą tę obfitość, pomagając nam odróżnić to, co jest tworzone przez ludzi, od tego, co tworzy sztuczna inteligencja. Kryptografia będzie niezbędna do utrzymania i zachowania tego, co prawdziwie ludzkie, w świecie, w którym tysiąc razy więcej treści jest generowanych sztucznie.

Możemy o tym wszystkim porozmawiać, ale myślę, że istnieje pewna ważna metanarracja: te dwie technologie są pod wieloma względami diametralnie różne.

Dan: Więc może Ali, dodając do tego, że jest to wspaniałe podsumowanie, dodałbym, że istnieje wiele obszarów, w których techniki sztucznej inteligencji mają wpływ na blockchainy; i odwrotnie, w których techniki blockchain mają wpływ na AI.

Odpowiem tutaj krótko, ponieważ za chwilę zagłębimy się w szczegóły, ale jest wiele punktów stycznych: spodziewam się, że za chwilę będziemy rozmawiać o zastosowaniach uczenia maszynowego w uczeniu maszynowym opartych na wiedzy zerowej…

Chcę również omówić wszystkie te zastosowania, w których uczenie maszynowe może być wykorzystane do pisania kodu. Na przykład, uczenie maszynowe może być użyte do pisania kodu Solidity, który się załamuje. Może być użyte do wykrywania potencjalnych błędów w kodzie i tak dalej.

Istnieją punkty przecięcia, w których uczenie maszynowe może być wykorzystane do generowania deepfake'ów, a blockchainy mogą pomóc w ochronie przed nimi. Spodziewam się, że omówimy wszystkie te kwestie, ale co ciekawe, istnieje znaczące powiązanie między blockchainami a uczeniem maszynowym.

Sonal: Tak, zanim przejdziemy do konkretów, Dan, mam pytanie: Czy zgadzasz się? Całkowicie rozumiem punkt widzenia Alego: sztuczna inteligencja i kryptowaluty to naturalne uzupełnienie, przeciwwaga, albo mogą być różnymi siłami, które wzajemnie się równoważą… Ale czy uważasz, że to nieodłączna cecha sztucznej inteligencji i kryptowalut? Czy to po prostu efekt obecnego sposobu działania? Z jakimi aspektami byś się zgodził, a z którymi nie?

Dan: Tak, więc powiedziałbym, że patrząc z dystansu… techniki stosowane w sztucznej inteligencji wydają się bardzo różne od tych stosowanych w blockchainach, prawda? Blockchainy koncentrują się na kryptografii, decentralizacji, finansach, ekonomii i tak dalej.

Podczas gdy t-233 koncentruje się na statystyce, matematyce uczenia maszynowego itp., t-233 koncentruje się na dużych zbiorach danych. Techniki te wydają się dość różne, ale istnieje wiele sposobów, w jakie jedna może pomóc drugiej i odwrotnie.

Prawdopodobnie pierwszym i najbardziej oczywistym zastosowaniem, o którym myśli wiele osób, jest uczenie maszynowe z zerową wiedzą. To rozwijająca się dziedzina zwana zkML. Jej atrakcyjność wynika z faktu, że techniki zerowej wiedzy uległy znacznemu rozwojowi dzięki zastosowaniu ich w blockchainach.

To, co wydarzyło się w ciągu ostatnich 10 lat, jest niesamowite; coś, co nie zdarza się zbyt często: koncepcja dowodów zerowej wiedzy i ogólnie systemów dowodowych, dekadę temu uważana była za bardzo teoretyczną. A ze względu na ich liczne zastosowania w blockchainach, nagle podjęto ogromne wysiłki, aby uczynić je bardziej praktycznymi i realistycznymi. W rezultacie poczyniono ogromne postępy (jak wiedzą nasi słuchacze), a teraz narzędzia te są wdrażane i wykorzystywane do zabezpieczania rzeczywistych systemów.

Pytanie brzmi: czy techniki zerowej wiedzy można wykorzystać do usprawnienia uczenia maszynowego? Jest kilka przykładów (szczerze mówiąc, moglibyśmy poświęcić cały podcast tylko ZKML), ale może mogę podać przykład, jeden lub dwa przykłady, gdzie ZK jest przydatny w uczeniu maszynowym.

Wyobraź sobie, że Alicja ma tajny model, nad którym spędziła mnóstwo czasu, i jest on dla niej bardzo ważny. Kluczowe jest, aby nikt nie wiedział, jak on działa. Ale ona nadal chce móc obsługiwać prośby Boba, prawda? Bob chce przesłać jej dane, a ona zastosuje model do danych i prześle mu wynik.

Bob nie ma pojęcia, czy ten model daje właściwe rezultaty, prawda? Może zapłacił za konkretny model i chce się upewnić, że Alicja faktycznie go używa, prawda? Może zapłacił za GPT-4 i chce się upewnić, że Alicja faktycznie używa GPT-4, a nie GPT-3.

Okazuje się, że techniki ZK mogą być w tym przypadku bardzo przydatne. Alicja zatwierdzała swój model i upubliczniała go. Następnie, za każdym razem, gdy Bob przesyłał dane, Alicja mogła uruchamiać model z ich użyciem i przesyłać mu wyniki wraz z dowodem na to, że model został poprawnie oceniony. W ten sposób Bob miałby pewność, że zatwierdzony model to ten sam, który został uruchomiony z jego danymi. Prawda? To przykład, jak techniki ZK mogą być przydatne w uczeniu maszynowym.

I chcę podkreślić, dlaczego to takie ważne: <Sonal: Tak!> Przyjrzyjmy się przykładowi:

Załóżmy, że mamy funkcję, model, który faktycznie wpływa na życie ludzi. Wyobraźmy sobie na przykład, że używamy modelu, aby zdecydować, czy udzielić pożyczki, czy kredytu hipotecznego; instytucja finansowa może chcieć zastosować podobny model. Chcemy mieć pewność, że ten sam model będzie stosowany do wszystkich, prawda? Nie chodzi o to, że jeden model będzie stosowany do mnie, a drugi do ciebie. Zasadniczo, zobowiązując bank do stosowania tego modelu i umożliwiając każdemu weryfikację, czy jego dane są oceniane przez ten sam zatwierdzony model, możemy zagwarantować, że ten sam model będzie stosowany do wszystkich.

Muszę powiedzieć, że istnieje tu otwarty problem: chociaż techniki zerowej wiedzy mogą zagwarantować zastosowanie tego samego modelu do wszystkich, pojawia się pytanie: czy model ten jest sprawiedliwy? Modele mogą być stronnicze i dawać niesprawiedliwe wyniki. Dlatego istnieje cały obszar badań zwany sprawiedliwością algorytmiczną; istnieje wiele artykułów na ten temat i naprawdę interesujące jest pytanie: teraz, gdy mamy już ustalony model, czy możemy wykazać, przy zerowej wiedzy, że model ten spełnia jakąś definicję sprawiedliwości z dziedziny sprawiedliwości algorytmicznej?

Jak możemy mieć pewność, że proces szkoleniowy przebiega prawidłowo?

Ali: Cóż, wszystko, co powiedziałeś o #zkml , jest niezwykle ekscytujące. Myślę, że jako technologia przyczyni się do zwiększenia przejrzystości i wiarygodności uczenia maszynowego, a w ogóle sztucznej inteligencji, zarówno w kontekście kryptowalut, jak i poza nim.

Myślę, że jeszcze ambitniejszym i być może długoterminowym zastosowaniem ZKML – i niektórych innych technik weryfikacji, nad którymi pracuje społeczność kryptograficzna – jest po prostu decentralizacja sztucznej inteligencji. Jak już wspomnieliśmy, sztuczna inteligencja jest technologią niemal z natury centralizującą, ponieważ rozwija się dzięki czynnikom takim jak efekt skali, ponieważ umieszczenie wszystkiego w centrum danych zwiększa jej wydajność. Dlatego centralne skalowanie wszystkiego zwiększa jej wydajność, a co za tym idzie, również jej centralizację.

Co więcej, dane są często kontrolowane przez niewielką liczbę średniej wielkości firm technologicznych. Prowadzi to również do większej centralizacji.

I wreszcie: modele uczenia maszynowego i talenty w zakresie uczenia maszynowego, również kontrolowane przez niewielką liczbę aktorów.

Kryptowaluty mogą ponownie pomóc na tym froncie, rozwijając technologie wykorzystujące takie rzeczy jak ZKML, które mogą pomóc nam zdecentralizować sztuczną inteligencję.

Istnieją zatem trzy główne aspekty związane ze sztuczną inteligencją: aspekt obliczeniowy, który wymaga masowego wykorzystania procesorów graficznych (zwykle w centrach danych); aspekt danych, nad którym, jak już wspomniałem, większość scentralizowanych firm sprawuje kontrolę; oraz same modele uczenia maszynowego. <Sonal: tak>

Najprostszym z nich mogą być obliczenia. Czy możliwe jest zdecentralizowanie obliczeń w celu trenowania i wnioskowania modeli uczenia maszynowego? W tym miejscu pojawiają się niektóre z technik wspomnianych przez Dana, takie jak dowody zerowej wiedzy, które pozwalają wykazać, że proces wnioskowania lub trenowania modelu został przeprowadzony poprawnie, umożliwiając tym samym zlecenie go dużej społeczności. Można mieć rozproszony proces, w którym każdy, kto posiada kartę graficzną, może wnieść obliczenia do sieci i w ten sposób trenować model, bez konieczności polegania na ogromnym centrum danych ze scentralizowanymi wszystkimi kartami graficznymi.

I pozostaje wielkie pytanie, czy to będzie miało sens ekonomiczny... Ale przynajmniej, przy odpowiednich zachętach, można wykorzystać potencjał „długiego ogona”: można zaprzęgnąć całą niewykorzystaną moc obliczeniową GPU; wszyscy ci ludzie mogą wnieść wkład w obliczenia związane z trenowaniem modelu lub uruchamianiem wnioskowania; i może to stanowić alternatywę dla tego, co w przeciwnym razie byłoby kontrolowane wyłącznie przez duże, średniej wielkości firmy technologiczne. <Sonal: Hmm!> Aby to było możliwe, konieczne byłoby rozwiązanie wielu istotnych kwestii technicznych.

W rzeczywistości istnieje firma w tym sektorze o nazwie Gensyn, która rozwija właśnie to. Tworzy zdecentralizowany rynek obliczeń GPU, głównie do trenowania modeli uczenia maszynowego. To rynek, na którym każdy może udostępnić swoją moc obliczeniową GPU, niezależnie od tego, czy korzysta z komputera osobistego pod biurkiem, czy siedzi bezczynnie w centrum danych.

Z drugiej strony, każdy może wykorzystać moc obliczeniową dostępną w sieci do trenowania swoich dużych modeli uczenia maszynowego. Byłaby to alternatywa dla scentralizowanej alternatywy typu OpenAI/Google/Meta/dla każdego – wiesz, wstaw tu swoją ulubioną dużą firmę technologiczną. <Sonal: Tak! (śmiech) – którą obecnie musielibyście przyjąć.

Sonal: Dobrze, zanim zagłębimy się w ten model decentralizacji, Ali, omawiałeś informatykę i myślę, że miałeś zamiar podzielić się dwoma pozostałymi z tych trzech filarów. Ale zanim to zrobiliście… oboje mówiliście trochę o wyzwaniach technicznych. Jakie wyzwania techniczne należy pokonać i nad czym być może już pracują? (Chciałabym, aby programiści słuchający tego odcinka również zastanowili się nad szansami w tym obszarze i nad tym, jak mogą sprostać istniejącym wyzwaniom; lub nad wyzwaniami, z którymi będą musieli się zmierzyć podczas opracowywania rozwiązań).

Dan: Tak, to może wspomnę o dwóch, które moim zdaniem mogą być interesujące dla ludzi.

[1] Wyobraźmy sobie, że Alicja ma model, który chce chronić. Chce wysłać go zaszyfrowanego komuś innemu, na przykład Bobowi. Bob otrzymuje zaszyfrowany model i musi móc uruchomić na nim swoje dane.

Jak to zrobić? Jeśli masz dane, które chcesz uruchomić w modelu, ale dysponujesz tylko szyfrowaniem modelu, jak to zrobić?

I do tego właśnie celu wykorzystalibyśmy szyfr w pełni homomorficzny. <Sonal: Tak. (FHE).> To szyfr w pełni homomorficzny, niezwykłe narzędzie, które umożliwia wykonywanie obliczeń na zaszyfrowanych danych.

To trochę niewiarygodne, że to możliwe, ale można mieć zaszyfrowany model i dane w postaci zwykłego tekstu, a następnie uruchomić zaszyfrowany model na tych danych i uzyskać zaszyfrowany wynik. Ten zaszyfrowany wynik zostałby następnie wysłany do Alicji, która mogłaby go odszyfrować i zobaczyć w postaci zwykłego tekstu.

To już istnieje... w rzeczywistości istnieje na to spore zapotrzebowanie w praktyce; <Sonal: tak> nie trzeba się zbytnio wysilać, żeby zauważyć, że Departament Obrony jest tym zainteresowany. Istnieje wiele innych aplikacji, w których można wysłać zaszyfrowany model do osoby trzeciej; uruchomi ona zaszyfrowany model na swoich danych; prześle Ci wyniki; możesz odszyfrować i uzyskać informacje o danych, które zostały wprowadzone jako dane wejściowe do zaszyfrowanego modelu.

Pytanie oczywiście brzmi: jak to skalować? Obecnie działa to dobrze w przypadku modeli średniej wielkości… i pytanie brzmi: czy możemy to skalować do znacznie większych modeli? To spore wyzwanie: kilka startupów w tym sektorze i, powtarzam, bardzo, bardzo interesująca technologia; to niesamowite, że to w ogóle możliwe. <Sonal: Tak… naprawdę. I prawdopodobnie zobaczymy tego znacznie więcej w przyszłości.

[2] Innym obszarem jest ten, o którym wspomniał Ali, kolejny bardzo ważny obszar, a mianowicie: skąd wiemy, że model został prawidłowo wytrenowany?

Jeśli więc wyślę komuś moje dane i poproszę o wytrenowanie modelu na ich podstawie lub o jego dostrojenie, skąd będę mieć pewność, że zrobił to poprawnie? Oczywiście, może zwrócić mi model, ale skąd mam wiedzieć, czy nie ma w nim luk w zabezpieczeniach? W rzeczywistości wiele badań wykazało, że jeśli trening zostanie przeprowadzony niepoprawnie, może zwrócić model, który działałby poprawnie ze wszystkimi danymi testowymi, ale ma lukę w zabezpieczeniach, co oznacza, że ​​zakończyłby się katastrofą przy określonym wejściu. Jest to możliwe, jeśli proces trenowania nie zostanie sprawdzony.

I znowu, to jest obszar, w którym ZKML wchodzi do gry: możemy wykazać, że trening został przeprowadzony poprawnie; być może istnieją inne techniki, aby to udowodnić. Ale znowu, to jest inny obszar – bardzo aktywny obszar badań – i zachęcam wielu słuchaczy do rozważenia, że ​​jest to bardzo złożony problem: wykazać, że trening został przeprowadzony poprawnie; wykazać, że dane treningowe zostały zebrane i poprawnie przefiltrowane, i tak dalej.

W rzeczywistości jest to doskonały obszar dla osób, które chcą wykonywać większą ilość pracy w tej dziedzinie.

Sonal: Świetnie! Ali, co jeszcze byś dodał?

Ali: Tak, zdecydowanie. Cóż, myślę, że jeśli nadal będziemy rozmawiać o tym, co byłoby potrzebne do decentralizacji stosu AI, to myślę, że aby zdecentralizować komponent obliczeniowy – a to są trzy ważne komponenty – jeśli chcemy zdecentralizować komponent obliczeniowy, istnieją dwa bardzo ważne wyzwania techniczne, które nie zostały jeszcze rozwiązane.

Pierwszym z nich jest problem weryfikacji (o którym właśnie wspomniał Dan) <Sonal: mhm>, do którego można by użyć ZKML. W idealnym przypadku, z czasem można by wykorzystać dowody zerowej wiedzy, aby wykazać, że faktyczna praca – czyli osoby tworzące tę sieć – została wykonana poprawnie.

Wyzwanie polega na tym, że wydajność tych prymitywów kryptograficznych jest daleka od poziomu niezbędnego do trenowania lub wnioskowania bardzo dużych modeli. W związku z tym obecne modele, takie jak znane i cenione przez nas modele LLM (np. ChatGPT), nie byłyby możliwe do udowodnienia przy obecnym stanie języka ZKML. W związku z tym trwają intensywne prace nad poprawą wydajności procesu proofingu, aby umożliwić efektywne dowodzenie coraz większych obciążeń. Jest to jednak otwarty problem, nad którym pracuje wiele osób.

Tymczasem firmy takie jak Gensyn stosują inne techniki, które nie są wyłącznie kryptograficzne, ale opierają się na teorii gier. Angażują większą liczbę niezależnych osób do wykonywania pracy i porównują ich wyniki, aby upewnić się, że wszystko jest wykonane poprawnie. <Sonal: Ciekawe! To bardziej optymistyczne podejście oparte na teorii gier, które nie opiera się na kryptografii, ale jest zgodne z głównym celem decentralizacji sztucznej inteligencji lub pomagania w tworzeniu znacznie bardziej organicznego, oddolnego ekosystemu sztucznej inteligencji, opartego na społeczności, w przeciwieństwie do podejścia odgórnego proponowanego przez firmy takie jak OpenAI.

To jest więc pierwszy problem; pierwszym dużym problemem jest problem weryfikacji.

Drugim poważnym problemem są systemy rozproszone: jak właściwie koordynować pracę dużej społeczności ludzi dostarczających procesory graficzne do sieci w taki sposób, aby wszystko to wyglądało jak zintegrowany i ujednolicony substrat obliczeniowy? <Sonal: tak>

Pojawi się wiele interesujących wyzwań, takich jak: logiczna fragmentacja obciążenia uczenia maszynowego; dystrybucja różnych części na różne węzły w sieci; znalezienie sposobu na wydajne wykonanie tego wszystkiego; a w przypadku awarii węzłów – znalezienie sposobu na odzyskanie sprawności i przypisanie nowych węzłów do przejęcia zadań wykonywanych przez uszkodzony węzeł. W związku z tym istnieje wiele złożonych szczegółów na poziomie systemów rozproszonych, które firmy będą musiały opracować, aby zapewnić zdecentralizowaną sieć, która może obsługiwać obciążenia uczenia maszynowego być może nawet bardziej ekonomicznie niż korzystanie z chmury.

Sonal: Tak… To wspaniale.

Dan: …Tak, i jest absolutną prawdą, że obecne techniki ZK poradzą sobie z mniejszymi, obecnie stosowanymi modelami, ale z pewnością modele LLM są prawdopodobnie zbyt duże, aby te techniki mogły je obsłużyć już dziś, techniki ZK. Wiadomo jednak, że one cały czas się udoskonalają, sprzęt też, więc miejmy nadzieję, że nadrobią zaległości.

Sonal: Tak; zanim przejdziemy dalej, czy możemy dokładnie sprawdzić, na jakim etapie jesteśmy? Oczywiście, słyszę, że mówicie o ogromnych zastosowaniach na styku weryfikowalnych obliczeń ogólnych, że blockchainy i kryptowaluty zdecydowanie rozwijają się i znacząco przyspieszają cały ten obszar (sami sporo o tym mówiliśmy: jeśli spojrzycie na nasz kanon ZK i kategorię wiedzy zerowej, zobaczycie, że jest tam sporo na ten temat).

Ale gdzie dokładnie jesteśmy teraz, jeśli chodzi o to, co możesz zrobić? Bo dużo mówiłeś o tym, czego jeszcze nie możesz zrobić i o możliwościach, jakie to stwarza, co jest ekscytujące. Ale gdzie jesteśmy teraz? Co tak naprawdę możesz zrobić?

Dan: Tak. W tej chwili zasadniczo potrafią klasyfikować modele średniej wielkości. Nie tak duże jak GPT-3 czy 4, ale modele średniej wielkości. <yes> Można wykazać, że klasyfikacja została przeprowadzona poprawnie. Szkolenie prawdopodobnie przekracza możliwości, jakie daje obecnie, po prostu dlatego, że wymaga dużych zasobów obliczeniowych. <Sonal: true> W przypadku systemów testowych jeszcze nie osiągnęliśmy tego punktu.

Ale jak powiedział Ali, mamy inne sposoby. Na przykład, możemy zlecić kilku osobom przeprowadzenie szkolenia, a następnie porównać wyniki. Prawda? Więc teraz istnieją bodźce wynikające z teorii gier, aby ludzie nie oszukiwali. Jeśli ktoś oszukuje, ktoś inny może narzekać, że źle obliczył szkolenie, a wtedy oszust nie otrzyma wynagrodzenia za swój wysiłek. <Sonal: Tak, tak, tak. Więc istnieje bodziec, aby ludzie faktycznie przeprowadzili szkolenie tak, jak powinno być przeprowadzone.

Sonal: Zgadza się. Zasadniczo nie jest to faza hybrydowa, a raczej alternatywne podejście, aż do osiągnięcia większej skalowalności i wydajności niezbędnej do osiągnięcia wymaganego poziomu.

Dan: Tak; powiedziałbym, że w przypadku niektórych modeli klasyfikację można udowodnić już dziś, nie mając żadnej wiedzy. W przypadku obecnego szkolenia musimy polegać na optymistycznych technikach.

Sonal: Tak, świetnie.

Ali, wspomniałeś, że informatyka jest jednym z trzech filarów, a także wspomniałeś o danych i samych modelach uczenia maszynowego: czy chcesz teraz omówić dane oraz szanse i wyzwania, jakie się z nimi wiążą (jeśli chodzi o połączenie kryptografii i sztucznej inteligencji)?

Ali: Tak, absolutnie. Myślę więc, że istnieje możliwość, choć kwestie z tym związane są bardzo złożone, zdecentralizowania procesu pozyskiwania danych do trenowania dużych modeli uczenia maszynowego z szerszej społeczności. Ponownie, zamiast jednego scentralizowanego podmiotu, który po prostu gromadziłby wszystkie dane, a następnie trenował modele.

Można by to osiągnąć, tworząc rodzaj rynku podobnego do tego, który właśnie opisaliśmy w przypadku informatyki, ale motywując ludzi do przekazywania nowych danych do dużego zbioru danych, który następnie jest wykorzystywany do trenowania modelu.

Trudność z tym jest podobna, ponieważ istnieje wyzwanie weryfikacji: trzeba w jakiś sposób zweryfikować, czy dane, które dostarczają ludzie, są rzeczywiście dobre <Sonal: tak!>, a nie zduplikowane, losowo wygenerowane śmieci lub po prostu nierealne. Trzeba też upewnić się, że dane nie zmienią modelu (jakiś rodzaj ataku zatruwającego), który stanie się podatny na ataki, po prostu mniej skuteczny lub będzie działał poniżej oczekiwań. Jak więc zweryfikować, czy tak jest?

I to jest prawdopodobnie złożony problem, który społeczność musi rozwiązać. Całkowite rozwiązanie może być niemożliwe i konieczne może być sięgnięcie po połączenie rozwiązań technologicznych i społecznościowych, wykorzystujących również pewien rodzaj miernika reputacji. Członkowie społeczności mogą zyskać wiarygodność, dzięki czemu udostępniane przez nich dane stają się bardziej wiarygodne niż w innych okolicznościach.

Dzięki temu można będzie teraz faktycznie objąć bardzo długi ogon dystrybucji danych.

Jednym z najtrudniejszych aspektów uczenia maszynowego jest to, że jakość modelu zależy od pokrycia rozkładu, jaki może osiągnąć zbiór danych treningowych. Jeśli dane wejściowe znacząco odbiegają od rozkładu danych treningowych, model może zachowywać się zupełnie nieprzewidywalnie. Aby model działał poprawnie w skrajnych przypadkach (oraz w przypadku czarnych łabędzi lub danych wejściowych, które mogą wystąpić w świecie rzeczywistym), kluczowe jest, aby zbiór danych był jak najbardziej kompleksowy.

Gdyby istniał taki otwarty, zdecentralizowany rynek, na którym można by było udostępniać dane do zbioru danych, każdy na świecie, kto posiada unikalne dane, mógłby je udostępnić w sieci. To lepszy sposób, ponieważ jeśli próbujesz to zrobić z poziomu scentralizowanej firmy, nie ma sposobu, aby dowiedzieć się, kto posiada te dane. Dlatego, jeśli zachęcisz ludzi do zgłaszania się i udostępniania danych z własnej inicjatywy, myślę, że możesz osiągnąć znacznie lepszy zasięg długiego ogona.

Jak widzieliśmy, wydajność modeli uczenia maszynowego stale się poprawia wraz ze wzrostem zbioru danych i różnorodności punktów danych. Może to dodatkowo zwiększyć wydajność naszych modeli uczenia maszynowego; możemy uzyskać jeszcze bardziej kompleksowe zbiory danych obejmujące całą społeczność.

Dan: Okej, pozwól, że odwrócę to na tę...

Sonal: Och, śmiało, Dan!

Dan: …Jeśli zamierzamy zachęcać ludzi do udostępniania danych, to w zasadzie będziemy ich zachęcać do tworzenia fałszywych danych. <Sonal: Tak!>, żeby dostawali za to pieniądze. Zgadza się? Musimy więc mieć jakiś mechanizm, który zapewni autentyczność udostępnianych danych. <Ali: Dokładnie>

Można sobie wyobrazić kilka sposobów, żeby to zrobić, prawda? Jednym ze sposobów jest poleganie na zaufanym sprzęcie. <Sonal: mhm>: Być może czujniki są zintegrowane z zaufanym sprzętem, któremu ufalibyśmy tylko w przypadku danych prawidłowo przez niego podpisanych. To jeden ze sposobów.

W przeciwnym razie potrzebowalibyśmy jakiegoś innego mechanizmu, dzięki któremu moglibyśmy stwierdzić, czy dane są autentyczne, czy nie.

Ali: Zgadzam się całkowicie.

To byłby największy otwarty problem do rozwiązania... I myślę, że w miarę jak ulepsza się benchmarking modeli uczenia maszynowego, widzę obecnie dwa główne trendy w uczeniu maszynowym <Sonal: tak> –

[1] Pomiar wydajności modeli uczenia maszynowego ulega poprawie. W przypadku LLM jest to wciąż w początkowej fazie i w rzeczywistości dość trudno jest określić ich jakość. Ponieważ nie jest to klasyfikator, w którym wydajność modelu jest jasno zdefiniowana. W przypadku LLM jest to niemal jak ocena inteligencji człowieka. Prawda? <Sonal: mhm!> Znalezienie właściwego sposobu oceny inteligencji LLM, takiego jak #chatgpt , to otwarty obszar badań. Myślę jednak, że z czasem będzie coraz lepiej.

[2] Drugim trendem jest to, że coraz lepiej potrafimy wyjaśnić, jak działa model.

Dzięki obu tym rzeczom w pewnym momencie może być możliwe zrozumienie wpływu zbioru danych na wydajność modelu uczenia maszynowego. <Sonal: Tak> A jeśli będziemy w stanie dobrze zrozumieć, czy zbiór danych dostarczony przez stronę trzecią pomógł, czy utrudnił wydajność modelu uczenia maszynowego, będziemy mogli nagrodzić ten wkład i stworzyć zachętę do istnienia takiego rynku.

Sonal: Podsumowując, to co dotąd usłyszałam od ciebie to to, że…

  • Istnieje niezawodny sprzęt, który może pomóc zweryfikować dokładność dostarczonych danych i modeli;

  • Ali, wspomniałeś krótko o wskaźnikach reputacji, a tego typu rzeczy mogą pomóc;

  • Wspomniałeś również, że może istnieć sposób (niekoniecznie teraz, ale w niedalekiej przyszłości) na sprawdzenie, w jaki sposób dane wpływają na wyniki konkretnego modelu, tak aby można było faktycznie... nie da się tego do końca wyjaśnić, ale chodzi o to, aby faktycznie można było przypisać, że ten zbiór danych spowodował ten konkretny efekt.

Tak więc dotychczas podzieliłeś się wieloma różnymi technikami.

Ali: Cóż, ostatnią rzeczą, którą możesz zrobić, to samo w przypadku trzeciego aspektu, czyli modeli.

Wyobraź sobie stworzenie otwartego rynku, na którym użytkownicy mogą wnieść swój wyszkolony model zdolny do rozwiązania konkretnego problemu. Wyobraź sobie stworzenie inteligentnego kontraktu w Ethereum, który integruje jakiś rodzaj testu, czy to test poznawczy, który może rozwiązać LLM, czy test klasyfikacyjny, który może rozwiązać klasyfikator uczenia maszynowego (AAP).

A jeśli użyjemy ZKML, ktoś mógłby dostarczyć model i dowód, że model ten jest w stanie rozwiązać dany test; wówczas mamy narzędzia potrzebne do stworzenia rynku, który zachęca ludzi do udostępniania modeli uczenia maszynowego, które mogą rozwiązać określone problemy.

Wiele z omawianych przez nas kwestii, nierozwiązanych problemów, które omówiliśmy, dotyczących sposobu osiągnięcia tego celu, jest również obecnych w tym miejscu. W szczególności istnieje fragment ZKML, w którym trzeba wykazać, że model faktycznie wykonuje pracę, którą deklaruje. Co więcej, potrzebujemy dobrych testów do oceny jakości modelu. Zatem możliwość zintegrowania testu w ramach inteligentnego kontraktu, a następnie poddania modelu uczenia maszynowego ocenie jakości, to kolejny, bardzo istotny aspekt tego całego trendu technologicznego.

Ale teoretycznie byłoby wspaniale, gdybyśmy w końcu dotarli do świata, w którym istniałyby otwarte, oddolne i transparentne rynki, umożliwiające ludziom wnoszenie wkładu i uzyskiwanie modeli obliczeniowych, danych oraz uczenia maszynowego dla uczenia maszynowego, co w zasadzie stanowiłoby przeciwwagę dla ogromnych, wysoce scentralizowanych firm technologicznych, które obecnie napędzają wszystkie prace związane ze sztuczną inteligencją.

Sonal: Podoba mi się, jak o tym wspomniałeś, Ali, ponieważ to od dawna istniejący problem w praktyce sztucznej inteligencji: może ona rozwiązać wiele problemów, takich jak krzywa dzwonowa, środkowa część normy, ale nie ekstremalne. Klasycznym przykładem są samochody autonomiczne. Można zrobić wszystko, stosując pewne standardowe zachowania, ale to w ekstremalnych przypadkach mogą się zdarzyć prawdziwe wypadki i katastrofy. <Ali: Prawda>

To było bardzo pomocne. Wiem, że mówiłeś o zharmonizowaniu zachęt i bodźców do dostarczania dokładnych, wysokiej jakości danych, a nawet o zachętach do udostępniania jakichkolwiek danych.

A skoro już o długim ogonie mowa, to podczas Twojej rozmowy nasunęło mi się szybkie pytanie. To skłania mnie do zastanowienia się, kto i gdzie w tym systemie zarabia pieniądze. Nie mogłem się powstrzymać od pytania, jak model biznesowy wpływa na rentowność firm? Zawsze rozumiałem, że w długim ogonie sztucznej inteligencji (w świecie, w którym dostępne są tego typu zbiory danych), Twoje zastrzeżone dane to w rzeczywistości Twoja unikalna wiedza domenowa – coś, co tylko Ty znasz w tym długim ogonie. Masz szybką odpowiedź?

Ali: Myślę, że wizja stojąca za połączeniem kryptowalut ze sztuczną inteligencją opiera się na założeniu, że można stworzyć zestaw protokołów, które umożliwią dystrybucję wartości, jaką ta nowa technologia, sztuczna inteligencja, ostatecznie przejmie, do znacznie szerszej grupy ludzi. Zasadniczo, do społeczności, z której wszyscy mogą współtworzyć i korzystać z korzyści płynących z tej nowej technologii. <Sonal: mhm>

Zatem pieniądze zarabialiby ci, którzy przyczyniają się do przetwarzania, dostarczają dane lub wprowadzają nowe modele uczenia maszynowego do sieci, dzięki czemu możliwe byłoby trenowanie lepszych modeli uczenia maszynowego i rozwiązywanie lepszych, większych i ważniejszych problemów.

Inni, którzy jednocześnie generowaliby przychody, to osoby po stronie popytu w tej sieci: ci, którzy wykorzystują ją jako infrastrukturę do trenowania własnych modeli uczenia maszynowego. <Sonal: tak> Być może ich model wygeneruje coś interesującego, może będzie to coś w rodzaju kolejnej generacji ChatGPT. A następnie rozprzestrzeni się to na różne aplikacje, takie jak aplikacje korporacyjne lub inne zastosowania tych modeli, a te modele same w sobie będą napędzać przechwytywanie wartości, ponieważ te firmy będą miały swój własny model biznesowy.

Wreszcie, ci, którzy budują tę sieć, mogliby również generować dochód. Na przykład: tworzony jest token dla sieci; token ten jest dystrybuowany wśród społeczności; a wszyscy ci ludzie mają wspólną własność tej zdecentralizowanej sieci, w której znajdują się dane i modele obliczeniowe, które mogłyby również przechwycić część wartości całej aktywności gospodarczej przechodzącej przez tę sieć.

Zatem, jak można sobie wyobrazić, każda płatność za obliczenia, dane lub modele mogłaby być obciążona opłatą. Opłata ta mogłaby trafiać bezpośrednio do skarbca kontrolowanego przez tę zdecentralizowaną sieć, którego wszyscy posiadacze tokenów są współwłaścicielami i do którego mają dostęp (jako twórcy i właściciele rynku).

A ta opłata mogłaby trafiać bezpośrednio do sieci. Wyobraźmy sobie zatem, że każda transakcja przechodząca przez tę sieć, każda forma płatności za obliczenia, dane lub modele, mogłaby być obciążona opłatą, która trafiałaby do skarbca kontrolowanego przez całą sieć i posiadaczy tokenów, którzy są jej zbiorowymi właścicielami.

To jest w zasadzie model biznesowy samej sieci.

Sonal: Genialne!

Dobrze. Do tej pory dużo mówiliśmy o tym, jak kryptowaluty mogą pomóc sztucznej inteligencji. Żeby było jasne, to nie jest jednokierunkowe; te rzeczy się wzajemnie wzmacniają, są dwukierunkowe i bardziej interaktywne niż jednokierunkowe.

Jednak na potrzeby tej dyskusji tak naprawdę mówimy o tym, w jaki sposób kryptowaluty mogą pomóc sztucznej inteligencji (AI); teraz odwróćmy temat i porozmawiajmy trochę więcej o tym, w jaki sposób AI może pomóc kryptowalutom.

Dan: Tak, jest tu parę interesujących punktów stycznych.

Jednym z tematów wartych poruszenia jest koncepcja wykorzystania modeli uczenia maszynowego do generowania kodu. Wielu słuchaczy prawdopodobnie słyszało o Copilocie, narzędziu do generowania kodu. Co ciekawe, można spróbować użyć tych narzędzi do pisania kontraktów Solidity lub kodu kryptograficznego.

Chcę podkreślić, że jest to naprawdę niebezpieczne.

Sonal: Och! Nie próbuj tego w domu! Dobra! <śmiech>

Dan: Tak. Tak. Nie próbuj tego w domu.

Ponieważ bardzo często te systemy generują kod, który działa, gdy próbujesz go uruchomić (a jak wiadomo, szyfrowanie jest przeciwieństwem deszyfrowania itd.), więc kod będzie działał, ale w rzeczywistości będzie niebezpieczny.

Niedawno napisaliśmy na ten temat artykuł, w którym pokazaliśmy, że jeśli spróbujemy zmusić Copilota do napisania czegoś tak prostego jak funkcja szyfrowania, otrzymamy coś, co wykona szyfrowanie poprawnie, ale użyje nieprawidłowego trybu działania, co spowoduje, że tryb szyfrowania będzie niezabezpieczony.

Podobnie, jeśli spróbujesz wygenerować kod Solidity, możesz otrzymać działający kod Solidity, ale będzie on miał luki w zabezpieczeniach.

Możesz się zastanawiać, dlaczego tak się dzieje? Jednym z powodów jest to, że te modele są zasadniczo trenowane na kodzie dostępnym w repozytoriach GitHub. Cóż, wiele repozytoriów GitHub jest podatnych na wszelkiego rodzaju ataki. Zatem te modele uczą się o kodzie, który działa, ale nie o kodzie bezpiecznym; to jak „śmieci na wejściu, śmieci na wyjściu”, prawda? <Sonal: Hmm!

Chcę więc mieć pewność, że ludzie zachowują szczególną ostrożność, korzystając z tych generatywnych modeli do generowania kodu, i że sprawdzają bardzo dokładnie, czy kod rzeczywiście robi to, co powinien, i że robi to bezpiecznie.

Ali: Jednym z pomysłów w tym kontekście (ciekawi mnie, co o tym myślisz) jest to, że można używać modeli sztucznej inteligencji, takich jak LLM (coś na wzór ChatGPT), do generowania kodu, a także innych narzędzi, które mają sprawić, że proces ten będzie mniej podatny na błędy.

I jednym z przykładów, jednym z pomysłów <oh> byłoby użycie LLM do wygenerowania specyfikacji dla formalnego systemu weryfikacji: Zasadniczo opisujesz swój program w języku angielskim; i prosisz LLM o wygenerowanie specyfikacji dla formalnego narzędzia weryfikacji; następnie prosisz tę samą instancję LLM o wygenerowanie programu, który spełnia tę specyfikację. <mm!> A potem używasz formalnego narzędzia weryfikacji, aby sprawdzić, czy program faktycznie spełnia specyfikację.

Jeśli wystąpią błędy, narzędzie je wykryje; błędy te mogą następnie zostać wykorzystane jako informacja zwrotna dla LLM. W idealnym przypadku LLM będzie mógł przejrzeć swoją pracę i stworzyć nową, poprawną wersję kodu. Wreszcie, jeśli ten proces będzie powtarzany wielokrotnie, rezultatem będzie fragment kodu, który w idealnym przypadku jest w pełni zgodny ze specyfikacją i formalnie zweryfikowany.

A ponieważ specyfikacja jest czytelna dla człowieka, możesz ją przejrzeć i sprawdzić, czy rzeczywiście to jest program, który chciałeś napisać. To może być świetny sposób na wykorzystanie LLM do pisania kodu, który jest mniej podatny na błędy niż po prostu poproszenie ChatGPT o wygenerowanie inteligentnego kontraktu.

Sonal: Jakie sprytne!

Dan: Tak, to świetnie. Prowadzi nas to do kolejnego tematu wartego omówienia, jakim jest wykorzystanie LLM do znajdowania błędów.

Załóżmy, że programista pisze kod w Solidity i chce sprawdzić, czy jest on poprawny i bezpieczny. Jak powiedział Ali, może użyć LLM do znalezienia luk w tym kodzie. Wiele pracy poświęcono ocenie skuteczności LLM w wykrywaniu błędów w oprogramowaniu, w inteligentnych kontraktach Solidity oraz w językach C i C++.

Niedawno opublikowano bardzo istotny artykuł z Uniwersytetu w Manchesterze <Sonal: mhm>, w którym czytamy, że jeśli uruchomisz standardowe narzędzie do analizy statycznej w celu znalezienia błędów w kodzie, znajdzie ono wszelkiego rodzaju błędy w zarządzaniu pamięcią i potencjalne błędy; to tylko standardowe narzędzie do analizy statycznej, bez żadnego uczenia maszynowego.

Ale wtedy użyłbyś LLM, żeby spróbować naprawić kod. Zgadza się? <Sonal: mm> <Ali: dokładnie> Więc automatycznie proponuje rozwiązanie błędu. A potem ponownie uruchomiłbyś analizator statyczny dla poprawionego kodu, <Ali: tak>, a analizator statyczny stwierdziłby: „Och, błąd nadal występuje albo go nie ma”. I powtarzałbyś iterację, aż analizator statyczny stwierdzi: „Tak, błąd został naprawiony i nie ma już żadnych problemów”.

To był naprawdę interesujący artykuł; ukazał się dosłownie dwa tygodnie temu.

Sonal: Jeśli chodzi o oba artykuły, które właśnie wymieniłeś, Dan – ten z Uniwersytetu w Manchesterze i ten, który niedawno napisali na temat braku zaufania do LLM-ów w kwestii pisania dobrego kodu (może to być działający kod, ale niekoniecznie bezpieczny) – zamieszczę linki do tych artykułów w notatkach do odcinka <Dan: great>, aby słuchacze mogli je znaleźć.

Tylko jedno krótkie pytanie, zanim przejdziemy dalej… Odnośnie obecnej sytuacji, czy jest ona tymczasowa, czy też uważasz, że nadejdzie czas, gdy LLM-om będzie można zaufać w pisaniu poprawnego, nie tylko funkcjonalnego, ale i bezpiecznego kodu inteligentnych kontraktów? Czy jest to możliwe, czy to jeszcze odległa perspektywa?

Dan: To trudne pytanie. Wiesz, że te modele z tygodnia na tydzień są coraz lepsze, prawda? <Sonal: Tak. Możliwe więc, że do przyszłego roku te problemy zostaną rozwiązane i będziemy mogli na nich polegać, aby pisać bezpieczniejszy kod. Myślę, że na razie mówimy o tym, że jeśli używasz obecnych modeli (GPT-4, GPT-3 itd.) do generowania kodu, musisz zachować szczególną ostrożność i sprawdzić, czy napisany kod rzeczywiście działa i jest bezpieczny.

Sonal: Zrozumiano.

Ali: A tak przy okazji, czy kiedykolwiek osiągniemy punkt, w którym kod generowany przez LLM będzie mniej prawdopodobny z błędami niż kod generowany przez człowieka? <Sonal: Tak! I być może to ważniejsze pytanie, prawda?

Bo tak jak nigdy nie można powiedzieć, że samochód autonomiczny nigdy się nie rozbije, tak naprawdę istotne jest pytanie: czy jest mniej prawdopodobne, że rozbije się, niż gdyby prowadził go człowiek? <Sonal: Dokładnie tak. Bo prawda jest taka, że ​​prawdopodobnie nie da się zagwarantować, że nigdy nie dojdzie do wypadku samochodowego spowodowanego przez samochód autonomiczny, ani że nigdy nie pojawi się błąd <Sonal: true wygenerowany przez LLM, któremu poprosiłeś o napisanie kodu.

I myślę, że, nawiasem mówiąc, będzie to coraz bardziej skuteczne w miarę integracji z istniejącymi łańcuchami narzędzi. Jak już wspomnieliśmy, można je zintegrować z łańcuchami narzędzi do formalnej weryfikacji. Można je zintegrować z innymi narzędziami, takimi jak to opisane przez Dana, które wykrywa problemy z zarządzaniem pamięcią. Można je również zintegrować z łańcuchami narzędzi do testowania jednostkowego i integracyjnego. W ten sposób LLM nie działa w izolacji: otrzymuje informacje zwrotne w czasie rzeczywistym z innych narzędzi, które łączą je z rzeczywistością.

Myślę, że łącząc niezwykle rozbudowane modele uczenia maszynowego, trenowane na wszystkich dostępnych danych, z tymi innymi narzędziami, mógłbym stworzyć programistów, którzy byliby o wiele lepsi od ludzi. <mhm> A nawet gdyby popełniali błędy, mogliby być nadludźmi.

I będzie to wielki moment dla całego świata inżynierii oprogramowania.

Sonal: Tak. Świetne ujęcie, Ali…

Jakie zatem inne pojawiające się trendy mogą przynieść korzyści kryptowalutom dzięki sztucznej inteligencji i odwrotnie?

Ali: Tak… Jedną z ekscytujących możliwości w tym obszarze jest to, że możemy zbudować zdecentralizowane sieci społecznościowe, które zachowują się bardzo podobnie do Twittera, ale w których wykres społecznościowy jest w całości oparty na łańcuchu i stanowi niemal dobro publiczne, na którym każdy może budować.

Jako użytkownik kontrolujesz swoją tożsamość na wykresie społecznościowym. Kontrolujesz swoje dane, osoby, które obserwujesz i które mogą obserwować Ciebie. Istnieje cały ekosystem firm tworzących portale na wykresie społecznościowym, które oferują użytkownikom doświadczenia podobne do tych na Twitterze, Instagramie, TikToku czy dowolnej innej platformie, którą zdecydują się rozwijać.

Ale to wszystko dzieje się na tym samym wykresie społecznościowym <Sonal: tak>, który nie jest niczyją własnością i nie ma pośrodku żadnej wartej miliardy dolarów firmy technologicznej, która miałaby nad nim całkowitą kontrolę i mogłaby decydować, co się na nim dzieje.

A ten świat jest ekscytujący, ponieważ oznacza, że ​​może być o wiele bardziej dynamiczny; może istnieć cały ekosystem ludzi tworzących rzeczy, a każdy użytkownik ma o wiele większą kontrolę nad tym, co widzi i co może zrobić na platformie. Ale istnieje również potrzeba oddzielenia sygnału od szumu. I na przykład, potrzeba stworzenia sensownych algorytmów rekomendacji, które filtrują wszystkie treści i pokazują kanał informacyjny, który faktycznie chcesz oglądać.

Otworzy to drzwi do całego rynku, konkurencyjnego środowiska, w którym uczestnicy dostarczają Ci algorytmy oparte na sztucznej inteligencji, które dobierają dla Ciebie treści. Jako użytkownik możesz mieć wybór: możesz zdecydować się na konkretny algorytm, być może opracowany przez Twittera lub zupełnie inny.

Taka autonomia będzie świetna, ale ponownie, będziesz potrzebować narzędzi, takich jak uczenie maszynowe i sztuczna inteligencja, które pomogą ci filtrować szum i analizować cały spam, który nieuchronnie pojawi się w świecie, w którym modele generatywne będą mogły tworzyć cały spam na świecie.

Sonal: Ciekawe w tym, co powiedziałeś, jest to, że nie chodzi nawet o wybór pomiędzy... To nawiązuje do pomysłu, o którym wspominałeś wcześniej, i pokrótce wspomniałeś o tym, że użytkownicy powinni po prostu wybierać pomiędzy rynkami darmowych pomysłów i podejść, z których mogą sami wybierać...

Ale to też ciekawe, bo nie chodzi tylko o firmy, ale o to, jakie podejście sprawdza się w Twoim przypadku. Być może bardziej zainteresuje Cię algorytm filtrowania grupowego, który istniał w oryginalnych systemach rekomendacji i który działa jak filtrowanie grupowe między ludźmi. <Ali: tak> Więc rekomendacje Twoich znajomych to to, co obserwujesz.

Tak naprawdę, ja osobiście jestem zupełnie inny i o wiele bardziej interesuje mnie wykres zainteresowań. Dlatego też mogę być o wiele bardziej zainteresowany ludźmi, którzy mają podobne zainteresowania do moich i mogę wybrać to podejście zamiast czegoś takiego, jak na przykład podejście hybrydowe, które wykona tylko X, Y i Z.

Sam fakt możliwości wyboru jest już niezwykle wzmacniający. To po prostu niemożliwe w tej chwili. I możliwe tylko dzięki kryptowalutom i sztucznej inteligencji. To świetny przykład. <O, tak!>

Czy chciałeś powiedzieć coś jeszcze na temat tego, w jaki sposób sztuczna inteligencja może pomóc w budowaniu zaufania i bezpieczeństwa?

Ali: Myślę, że metaobraz jest taki, że kryptowaluty to Dziki Zachód. Ponieważ nie wymagają uprawnień, każdy może w nich uczestniczyć; trzeba założyć, że każdy może być przeciwnikiem i próbować manipulować systemem, włamać się do niego lub zrobić coś złośliwego.

W związku z tym istnieje znacznie większe zapotrzebowanie na narzędzia, które pomogą odsiać uczciwych uczestników od nieuczciwych, a uczenie maszynowe i sztuczna inteligencja, jako narzędzia wywiadowcze, mogą być naprawdę bardzo przydatne w tym zakresie.

Na przykład istnieje projekt o nazwie Stelo, który wykorzystuje uczenie maszynowe do identyfikowania podejrzanych transakcji wysyłanych do portfela i oznacza je flagą użytkownika, zanim trafią do blockchaina. Może to być dobry sposób na uniemożliwienie użytkownikowi przypadkowego wysłania wszystkich swoich środków atakującemu lub zrobienia czegoś, czego później będzie żałował. Firma ta zasadniczo sprzedaje portfele (firmom takim jak MetaMask), aby MetaMask mógł wykorzystać te informacje i zrobić z nimi, co zechce: zablokować transakcję, ostrzec użytkownika lub w pewien sposób zmienić jej strukturę, aby nie była już niebezpieczna. To tylko jeden przykład.

Istnieją również inne przykłady w kontekście MEV (minimalnej wartości ekstrakcyjnej, <Sonal: yes>) lub maksymalnej wartości ekstrakcyjnej, w zależności od tego, kogo zapytasz, czyli wartości, którą mogą wydobyć osoby kontrolujące kolejność transakcji w blockchainie. Zazwyczaj są to górnicy lub walidatorzy blockchaina.

A sztuczna inteligencja w tym przypadku może być mieczem obosiecznym, ponieważ jeśli jesteś walidatorem w blockchainie i kontrolujesz kolejność transakcji, możesz wdrożyć wszelkiego rodzaju sprytne strategie, aby uporządkować je w sposób, który Ci odpowiada. Na przykład, możesz wyprzedzać transakcje, opóźniać transakcje i przeplatać zlecenia w Uniswap. Istnieje niezliczona ilość sposobów tworzenia transakcji, aby wykorzystać tę możliwość do ich uporządkowania. Uczenie maszynowe i sztuczna inteligencja mogą wzmocnić tę zdolność, ponieważ mogą poszukiwać możliwości przechwytywania stale rosnącej wartości MEV.

Z drugiej strony, uczenie maszynowe może być również przydatne jako narzędzie obronne. Przed przesłaniem transakcji możesz wiedzieć, że walidator może ją wyodrębnić. W związku z tym możesz podzielić ją na kilka transakcji, aby żaden walidator nie mógł jej w pełni kontrolować, lub podjąć środki zabezpieczające przed wyodrębnieniem ekstraktu przez walidatora w pewnym momencie procesu transakcji.

To jest więc jeden z aspektów, w których kryptowaluty odgrywają ważną rolę, jeśli chodzi o bezpieczeństwo, zaufanie i zwiększenie niezawodności przestrzeni dla użytkownika końcowego.

Sonal: To przykład na to, jak sztuczna inteligencja utrudnia życie w świecie kryptowalut, a potem kryptowaluty wracają i wszystko poprawiają... *śmiech*.

Dan: Właściwie mam podobny przykład. <Sonal: Tak! Tak jak modele uczenia maszynowego mogą być używane do wykrywania fałszywych danych lub potencjalnie złośliwych działań, <mm, jest i druga strona medalu: modele uczenia maszynowego mogą być używane do generowania fałszywych danych. <Sonal: Tak

Klasycznym przykładem są deepfake'i, prawda? Można stworzyć film, na którym ktoś mówi rzeczy, których nigdy nie powiedział, i taki film wygląda całkiem realistycznie. Co ciekawe, blockchain może pomóc rozwiązać ten problem. Pozwólcie, że wyjaśnię jedno z możliwych podejść, w którym blockchain może się przydać:

Wyobraź sobie, że to rozwiązanie mogłoby być zastosowane tylko w przypadku znanych osobistości, takich jak politycy czy gwiazdy filmowe itd. <Sonal: mhm>. Ale wyobraź sobie polityka noszącego kamerę na piersi i nagrywającego swoje poczynania przez cały dzień. <Sonal: yes>, a następnie tworzącego drzewo Merkle'a na podstawie tego nagrania i wysyłającego commity drzewa Merkle'a do blockchaina. <mhm>

Teraz, w blockchainie, istnieje znacznik czasu, który wskazuje, że tego dnia powiedziałeś to i tamto; tamtego dnia powiedziałeś to i tamto. A jeśli ktoś stworzy całkowicie fałszywe nagranie, na którym polityk mówi rzeczy, których nigdy nie powiedział, polityk może powiedzieć: „Słuchajcie, w czasie, gdy nagranie twierdziło, że powiedziałem to i tamto, byłem zupełnie gdzie indziej i robiłem coś zupełnie niezwiązanego”.

A fakt, że wszystkie te dane – prawdziwe dane, autentyczne dane – są rejestrowane w blockchainie, może posłużyć do udowodnienia, że ​​deepfake jest rzeczywiście fałszywy, a nie prawdziwy. Prawda?

Więc to jeszcze nie jest coś, co istnieje. <Sonal: tak> Byłoby fajnie, gdyby ktoś coś takiego stworzył, ale pomyślałem, że to ciekawy przykład tego, jak blockchainy mogą być naprawdę przydatne <Sonal: tak> w walce z deepfake'ami.

Sonal: Czy istnieje sposób na rozwiązanie tego problemu i pokazanie innych znaczników czasu lub pochodzenia, dzięki czemu można by było dokonać weryfikacji tego, co jest prawdą, a co nie, bez konieczności noszenia przez polityka kamery na piersi? <Dan się śmieje>

Dan: Tak, oczywiście. Możemy też polegać na niezawodnym sprzęcie w tym zakresie; <mhm> Wyobraź sobie więc nasze aparaty, aparaty w naszych telefonach i tak dalej, które naprawdę potwierdzałyby jakość zdjęć i filmów, które robią. <Sonal: Tak>.

Istnieje standard o nazwie C2PA, który określa, w jaki sposób kamery będą podpisywać dane; w rzeczywistości istnieje kamera Sony, która teraz robi zdjęcia i nagrywa filmy, a następnie tworzy na tych nagraniach podpisy C2PA... Teraz masz więc w zasadzie autentyczne dane i możesz udowodnić, że dane rzeczywiście pochodzą z kamery C2PA.

A teraz, Sonal, jeśli zdarzy ci się czytać artykuł w gazecie i w artykule jest zdjęcie, które rzekomo pochodzi z jednego miejsca, ale w rzeczywistości pochodzi z innego; podpis można zweryfikować, po prostu powołując się na C2PA.

Jest tam wiele niuansów, C2PA to dość skomplikowany temat, <mhm> jest wiele niuansów do omówienia i być może nie będziemy ich tutaj omawiać;

Sonal: Dan, pamiętam, że rozmawiałeś ze mną o tym projekcie wcześniej (chyba w naszym biurze); ale pamiętam też, że nie wytrzymuje on edycji. A jak wiesz, redaktorzy tacy jak ja i inni twórcy treści, a szczerze mówiąc, praktycznie każdy (kto korzysta z Instagrama lub jakiejkolwiek innej platformy do publikacji)… nikt nie publikuje niczego dokładnie w takiej formie, w jakiej zostało to pierwotnie stworzone…

Dan: Tak, zazwyczaj, gdy gazety publikują zdjęcia, nie publikują obrazu bezpośrednio z aparatu, ale go kadrują. Jest kilka rzeczy, które mogą zrobić ze zdjęciami: może zastosować skalę szarości; zdecydowanie zmniejszyć rozdzielczość (aby uniknąć nadmiernego wykorzystania przepustowości).

W momencie rozpoczęcia edycji obrazu odbiorca (czytelnik końcowy, użytkownik przeglądarki czytający artykuł) nie może już zweryfikować podpisu C2PA. Ponieważ nie ma oryginalnego obrazu. <Sonal: Zgadza się! Pytanie brzmi: jak umożliwić użytkownikowi sprawdzenie, czy oglądany obraz jest rzeczywiście poprawnie podpisany przez kamerę C2PA?

Cóż, jak zawsze, tutaj w grę wchodzą techniki zerowej wiedzy <Sonal: mmm!>: gdzie można wykazać, że edytowany obraz jest w rzeczywistości wynikiem zastosowania jedynie redukcji rozdzielczości i skali szarości do większego, poprawnie podpisanego obrazu. Prawda? Zamiast podpisu C2PA, mielibyśmy więc dowód ZK (skrócony dowód ZK) powiązany z każdym z tych obrazów. A teraz czytelnicy mogą zweryfikować <mhm>, że oglądają autentyczne obrazy.

To bardzo interesujące, że techniki ZK można wykorzystać do walki z dezinformacją. To dość nieoczekiwane zastosowanie.

Sonal: To fantastyczne.

Ali: A tak przy okazji, ściśle powiązanym problemem jest udowodnienie, że jest się człowiekiem <Sonal: mhm> w świecie, w którym deepfake'i tworzące pozory człowieczeństwa generalnie przewyższają liczebnie ludzi w stosunku tysiąc do jednego lub milion do jednego. A większość rzeczy w internecie mogłaby być generowana przez sztuczną inteligencję.

Jednym z możliwych rozwiązań, związanych z tym, co mówisz, jest wykorzystanie biometrii do ustalenia, czy ktoś jest człowiekiem. A następnie zastosowanie testów z zerową wiedzą, aby chronić prywatność osób, które wykorzystują biometrię do udowodnienia swojego człowieczeństwa.

Jeden z projektów w tej kategorii nazywa się WorldCoin <Sonal: tak, to również projekt w naszym portfolio, który wykorzystuje tę kulę; ludzie mogli ją widzieć jako błyszczącą srebrną kulę, która wykorzystuje skany siatkówki jako dane biometryczne, aby potwierdzić, że jesteś prawdziwym człowiekiem; ma też różnego rodzaju czujniki, które gwarantują, że żyjesz i że to nie może być replika oka. Ten system ma bezpieczny sprzęt i jest bardzo trudny do sfałszowania.

W rezultacie uzyskany dowód – test zerowej wiedzy, który ukrywa rzeczywiste dane biometryczne – jest niezwykle trudny do podrobienia. W ten sposób politycy mogliby na przykład udowodnić, że ich transmisja wideo, podpis lub udział w forum internetowym rzeczywiście należą do nich i że są ludźmi.

Sonal: Co jest naprawdę interesującego w tym, co powiedziałeś, Ali, to fakt, że stanowi to świetną kontynuację tego, co mówił Dan o sposobach weryfikacji autentycznych mediów w porównaniu z fałszywymi lub ultrafałszywymi, a także o tym świecie nieskończonych mediów (jak byś to ujął), w którym żyjemy...

Ale jakie są inne zastosowania technologii potwierdzających tożsamość, takich jak ta? Myślę, że to ważne, ponieważ to kolejny przykład tego, jak kryptografia może również szerzej pomóc sztucznej inteligencji. Wracając do tematu… ciągle się kłócimy, <Ali: tak, ale to nie ma znaczenia, bo mówimy tylko o naprawdę interesujących zastosowaniach, kropka.

Ali: Cóż, to bardzo dobre pytanie… Jedną z rzeczy, które staną się ważne w świecie, w którym każdy może uczestniczyć w sieci, jest możliwość udowodnienia, że ​​jest się człowiekiem, dla różnych celów. Jest takie słynne powiedzenie z lat 90.: „W internecie nikt nie wie, że jesteś psem”. <Sonal: O, tak! Myślę, że reinterpretacja tego powiedzenia brzmi: w internecie nikt nie wie, że jesteś botem. <Sonal: Aha? I myślę, że właśnie tutaj projekty dowodów ludzkich stają się bardzo ważne, <Sonal: Tak! Ponieważ ważne będzie, aby wiedzieć, czy wchodzi się w interakcję z botem, czy z człowiekiem…

Na przykład w świecie kryptowalut pojawia się pytanie o zarządzanie: jak zarządzać zdecentralizowanymi systemami, bez pojedynczego punktu kontroli, oddolnie i z własnością społecznościową? Potrzebny byłby jakiś system zarządzania, który umożliwiłby monitorowanie ewolucji tych systemów.

A problem dzisiaj polega na tym, że jeśli nie masz dowodu na to, że ktoś jest człowiekiem, to nie możesz wiedzieć, czy dany adres należy do jednego człowieka, czy do grupy ludzi, ani czy 10 000 adresów tak naprawdę należy do jednego człowieka, udając, że należą do 10 000 różnych osób.

Zatem dziś wręcz konieczne jest wykorzystywanie ilości pieniędzy jako wskaźnika siły głosu, co prowadzi do plutokratycznych rządów. <Sonal: Tak, dokładnie. Ale gdyby każdy uczestnik systemu rządzenia mógł udowodnić, że jest człowiekiem, i mógłby to zrobić w sposób unikalny (aby nie mógł udawać, że jest więcej niż jednym człowiekiem, ponieważ ma tylko jedną parę oczu), wówczas system rządzenia byłby o wiele sprawiedliwszy i mniej plutokratyczny, a także mógłby opierać się bardziej na preferencjach każdej jednostki, a nie na preferencjach dotyczących największej kwoty pieniędzy zablokowanej w inteligentnym kontrakcie.

Dan: Tak naprawdę, tylko po to, żeby podać przykład…

Dziś jesteśmy zmuszeni stosować zasadę „jeden żeton, jeden głos”, ponieważ nie mamy dowodu na człowieczeństwo. Chcielibyśmy używać zasady „jeden człowiek, jeden głos”, ale jeśli udajemy, że jesteśmy pięcioma ludźmi, to oczywiście to nie działa. Przykładem tego jest tzw. głosowanie kwadratowe. <Sonal: tak>

W głosowaniu kwadratowym, jeśli chcesz zagłosować pięć razy na coś, musisz, że tak powiem, wpłacić 25 tokenów. Oczywiście możesz zrobić to samo: udawać, że jesteś pięcioma różnymi osobami głosującymi raz, co zniweczyłoby mechanizm głosowania kwadratowego. Jedynym sposobem na obejście tego problemu jest test człowieczeństwa: aby zagłosować, musisz udowodnić, że jesteś pojedynczym bytem, ​​a nie sybillą bytów. I właśnie tutaj test człowieczeństwa odegrałby kluczową rolę.

Ogólnie rzecz biorąc, tożsamość w łańcuchu dostaw staje się coraz ważniejsza dla zarządzania.

Sonal: Zdecydowanie... A tak przy okazji, przypomniało mi to odcinek, który zrobiliśmy lata temu, Ali, z Philem Daianem. <Ali: O, tak. Pamiętasz, o „Dark DAOs”? <Ali: Tak... dokładnie. To była bardzo interesująca rozmowa. Absolutnie istotna.

Ali: Zdecydowanie.

Sonal: A tak przy okazji, czy chodzi o „test osobowości” czy „test człowieczeństwa”? Jaka jest różnica? Czy to to samo?

Ali: Ach tak, ludzie używają ich zamiennie: dowód człowieczeństwa, dowód człowieczeństwa, dowód osobowości.

Sonal: Tak, tak.

Dobrze, więc kontynuujmy temat mediów i tej „nieskończonej obfitości” mediów. Jakie są inne przykłady? - I znowu mówimy o kryptowalutach wspomagających sztuczną inteligencję, a sztuczna inteligencja pomagająca kryptowalutom. <Ali: tak> - czy są jakieś inne przykłady, których tu nie omówiliśmy, gdzie połączenie kryptowalut i sztucznej inteligencji może generować rzeczy, które nie byłyby możliwe przy użyciu jednej lub drugiej osobno?

Ali: Zdecydowanie. Inną implikacją tych modeli generatywnych jest to, że będziemy żyć w świecie nieskończonej obfitości mediów. A w tym świecie aspekty takie jak społeczność skupiona wokół danego medium czy narracja wokół danego medium będą zyskiwać na znaczeniu.

Dokładniej, oto dwa dobre przykłady: Sound.xyz rozwija zdecentralizowaną platformę streamingową, która pozwala artystom (a właściwie muzykom) przesyłać muzykę i łączyć się bezpośrednio ze swoimi społecznościami poprzez sprzedaż NFT, które przyznają członkom określone przywileje. Na przykład możliwość dodania komentarza do utworu na stronie Sound.xyz, aby każdy, kto go odtwarza, mógł go również zobaczyć. (Jest to podobne do starej funkcji SoundCloud, którą być może pamiętasz, gdzie można było korzystać z pełnego, społecznościowego doświadczenia z muzyką podczas jej odtwarzania na stronie).

Ta możliwość pozwala ludziom wchodzić w interakcję z mediami i ze sobą nawzajem, często niedrogo, ponieważ w zasadzie kupują oni NFT od artysty, aby to zrobić. W rezultacie wspierają artystę, pomagając mu w osiągnięciu stabilności finansowej i tworzeniu większej ilości muzyki.

Ale najlepsze w tym wszystkim jest to, że oferuje artystom forum do interakcji ze społecznością. A artysta jest człowiekiem. A dzięki kryptowalutom wokół utworu muzycznego może powstać społeczność – taka, która nie powstałaby automatycznie wokół utworu muzycznego – stworzona przez model uczenia maszynowego bez elementu ludzkiego, bez otaczającej go społeczności.

Myślę więc ponownie, że w świecie, w którym znaczna część muzyki, z którą mamy styczność, jest generowana w całości przez sztuczną inteligencję, narzędzia do budowania społeczności i opowiadania historii wokół sztuki, muzyki i innych mediów będą kluczowe dla odróżnienia mediów, które naprawdę mają dla nas znaczenie i w które chcemy inwestować i którym chcemy poświęcać czas, od mediów, które, choć również bardzo dobre, są po prostu innego rodzaju. To media generowane przez sztuczną inteligencję, z mniejszą ilością ludzkiego pierwiastka. A tak przy okazji, może istnieć pewna synergia między tymi dwoma.

Możliwe, że znaczna część muzyki jest optymalizowana lub generowana przez sztuczną inteligencję. Ale jeśli istnieje również czynnik ludzki – na przykład twórca używa narzędzi AI do stworzenia nowego utworu – a także jest obecny na stronie artysty Sound, zbudował społeczność i ma obserwujących, wówczas powstaje swoista synergia między tymi dwoma światami. Oba światy mają najlepszą muzykę, wzmocnioną supermocami, które daje im sztuczna inteligencja; ale mają też czynnik ludzki i wspólną historię, skoordynowaną i realizowaną poprzez ten kryptograficzny aspekt (który pozwala na zebranie wszystkich tych osób na jednej platformie).

Dan: To naprawdę niesamowite, że nawet w świecie muzyki – tak jak mówimy o świecie programowania, gdzie człowiek-programista jest wspomagany przez narzędzia takie jak Copilot, które generują kod – widzimy takie rzeczy: artysta jest wspomagany przez systemy uczenia maszynowego, które pomagają w pisaniu (a przynajmniej część muzyki jest pisana i generowana przez system uczenia maszynowego). Zatem zdecydowanie wkraczamy w nowy świat pod względem generowania treści. Zasadniczo, będzie dużo spamu generowanego przez sztukę generowaną maszynowo, która może nie być tak ceniona przez ludzi.

Można to ująć inaczej – jednym z celów NFT było wspieranie artystów. <Sonal: Tak> Ale jeśli sami artyści są teraz modelami uczenia maszynowego, kogo właściwie wspieramy? <laughs> <Sonal: Tak… tak> Pytanie zatem brzmi: jak odróżnić sztukę generowaną przez ludzi, która potrzebuje wsparcia <Sonal: Tak>, od sztuki generowanej przez maszyny.

Sonal: Cóż, to filozoficzna dyskusja, z którą można się umówić na drinka, ale zaryzykowałabym stwierdzenie, że osoba, która celowała, jest również artystą, w pewnym sensie. <Ali: Tak> I właściwie powiedziałabym, że ta osoba jest artystą. I to samo stało się z… ponieważ to dyskusja i debata stara jak świat: chodzi po prostu o nowe technologie, stare zachowania. To samo dzieje się od wieków. I to samo dotyczy pisania itd., absolutnie.

Dan: To prawda.

Ali: Cóż, to faktycznie otwiera drzwi do sztuki kolektywnej <Sonal: mhm>, do sztuki, która powstaje w procesie twórczym całej społeczności, a nie pojedynczego artysty;

W rzeczywistości istnieją już projekty, które to robią, gdzie: istnieje proces, w którym społeczność wpływa, poprzez swego rodzaju proces głosowania łańcuchowego, na treść komunikatu dla modelu uczenia maszynowego, takiego jak DALL-E. Następnie DALL-E wykorzystuje ten komunikat do wygenerowania dzieła sztuki (być może nie tylko jednego dzieła, ale 10 000), a następnie inny model uczenia maszynowego, również trenowany na podstawie opinii społeczności, wybiera najlepszy z tych 10 000.

Dobrze, więc masz teraz dzieło sztuki wygenerowane na podstawie sugestii społeczności; zostało ono również wyselekcjonowane i wybrane z zestawu 10 000 wariantów tego dzieła (tak, serio), również z wykorzystaniem modelu uczenia maszynowego wytrenowanego przez społeczność, aby następnie wygenerować finalne dzieło sztuki. Jest to, w pewnym sensie, rezultat tej kolektywnej współpracy.

To niesamowite.

Sonal: Uwielbiam to. No cóż, chłopaki, to świetny sposób na zakończenie; dziękuję wam obu za podzielenie się tym wszystkim ze słuchaczami „web3 with a16z”.

Dan: Dzięki Sonal.

Ali: Dziękuję bardzo.

Poglądy wyrażone w niniejszym dokumencie są opiniami cytowanych pracowników AH Capital Management, LLC („a16z”), a nie a16z ani jej podmiotów stowarzyszonych. Niektóre informacje zawarte w niniejszym dokumencie pochodzą ze źródeł zewnętrznych, w tym od spółek portfelowych funduszy zarządzanych przez a16z. Chociaż pochodzą ze źródeł uważanych za wiarygodne, a16z nie zweryfikowało tych informacji niezależnie i nie gwarantuje ich ciągłej dokładności ani przydatności w żadnej konkretnej sytuacji. Ponadto treść może zawierać reklamy stron trzecich; a16z nie weryfikowało i nie popiera takich reklam.

Niniejsza treść ma charakter wyłącznie informacyjny i nie powinna być traktowana jako porada prawna, biznesowa, inwestycyjna ani podatkowa. W tych kwestiach należy skonsultować się z doradcą. Odniesienia do papierów wartościowych lub aktywów cyfrowych mają charakter wyłącznie poglądowy i nie stanowią rekomendacji inwestycyjnej ani oferty usług doradztwa inwestycyjnego. Niniejsza treść nie jest skierowana do inwestorów ani potencjalnych inwestorów i nie powinna być wykorzystywana jako podstawa do podjęcia decyzji o inwestycji w fundusz zarządzany przez a16z. (Oferta inwestycji w fundusz a16z zostanie złożona wyłącznie za pośrednictwem memorandum o ofercie prywatnej, umowy subskrypcyjnej i innych stosownych dokumentów danego funduszu i należy ją przeczytać w całości). Wymienione, wymienione lub opisane inwestycje lub spółki portfelowe nie reprezentują wszystkich inwestycji w podmioty zarządzane przez a16z i nie ma gwarancji, że inwestycje te będą rentowne lub że inne przyszłe inwestycje będą miały podobne cechy lub wyniki. Lista inwestycji dokonanych przez fundusze zarządzane przez Andreessen Horowitz (z wyłączeniem inwestycji, na których ujawnienie emitent nie wyraził zgody na a16z, a także niezapowiedzianych inwestycji w publicznie notowane aktywa cyfrowe)

#BİNANCESQUARE

$BTC

BTC
BTC
95,150.74
-0.12%