Acest articol este rezultatul unei cercetări personale mai degrabă decât o analiză tehnică. Pentru că, ca producător de conținut, lucrez foarte aproape de inteligența artificială în timp ce formez conținutul, și în fiecare proces, pun la îndoială atât cunoștințele mele, cât și sugestiile ei separat și încerc să ajung la o concluzie.

În special pe platforme precum @DAO Labs care încurajează participarea, această relație cu agenții inteligenței artificiale este cu adevărat importantă. Cu acești agenți, încercăm să gândim, să decidem și chiar să înțelegem unele probleme și mai bine. Și în acest proces, devine inevitabil să punem la îndoială sistemele care creează conținut la fel de mult ca și să le producem. De aceea, m-am întrebat: “Voi fi atât de confortabil cu datele mele personale?”

În epoca #AI3 , securitatea nu este doar o chestiune a sistemului, ci și a utilizatorului. Și încrederea de multe ori nu începe din termeni criptografici complecși, ci din ceva mult mai uman: Înțelegerea. De aceea, acest articol începe cu întrebările pe care eu, ca utilizator, le-am pus. Și își propune să le răspundă cu sinceritate, folosind sursele oficiale disponibile pentru noi.

Primul concept cu care m-am întâlnit a fost #TEE : Mediul de Execuție de Încredere. În definiția Dr. Chen Feng, aceste sisteme sunt structuri izolate construite într-un mediu nesigur; zone care sunt închise intervenției externe și pot fi accesate doar conform unor reguli specifice. Este posibil să o gândim ca un fel de fortăreață, dar această fortăreață nu este construită în afara sistemului, ci chiar în interiorul acestuia. Agentul lucrează aici, datele sunt procesate aici și nimeni din exterior nu poate vedea ce se întâmplă. Totul sună foarte sigur. Dar am încă o întrebare foarte simplă în minte: Cine a construit acest castel? Cine are cheia ușii? Și în acest moment, o nouă întrebare mi-a apărut în minte: Cât de sigură este cu adevărat această structură? #ConfidentialAI

Ar fi prea optimist să presupunem că această structură este infailibilă, indiferent cât de protejată pare. Pentru că de obicei, producătorul de hardware este cel care construiește aceste spații, ceea ce ne aduce la relația inevitabilă de încredere. Desigur, de-a lungul timpului, au fost descoperite vulnerabilități în unele implementări TEE. Cu toate acestea, problema aici nu este doar dacă această structură este impecabilă sau nu, ci și cum sunt utilizate aceste structuri și cu ce sunt susținute. Astăzi, aceste sisteme nu sunt considerate soluții autonome, ci parte a unor arhitecturi mai mari și mai echilibrate. Aceasta le face logice, dar nu absolute.

De aceea, designul sistemului are sens nu doar prin încrederea într-o singură metodă, ci prin echilibrarea diferitelor tehnologii. Există soluții alternative. De exemplu, ZKP, Zero-Knowledge Proof, reușește să verifice acuratețea informațiilor păstrând conținutul său secret. Sau sisteme precum MPC, care procesează datele împărțindu-le și împărtășindu-le între mai multe părți. Acestea sunt metode impresionante. În trecut, aceste tehnologii erau considerate lente, dar au existat progrese semnificative în viteză în ultimii ani. Așa cum spune Dr. Feng, poate va trebui să așteptăm până la sfârșitul secolului pentru ca aceste tehnologii să se maturizeze. Deși această propoziție vorbește despre o realitate tehnică, este de asemenea izbitoare.

Acum ajung la adevărata întrebare: Unde se potrivește #AutonomysNetwork în tot acest ansamblu? Este acest proiect doar o promisiune de intimitate, sau construiește cu adevărat o arhitectură diferită? Sunt mai interesat de răspunsul la această întrebare pentru că nu vreau doar să am încredere în tehnologie; vreau de asemenea să știu cum funcționează sistemul. Autonomys nu lasă TEE singur. Protejează acțiunile agentului în cadrul TEE și înregistrează raționamentul deciziilor sale în lanț. Aceste înregistrări sunt făcute permanente prin PoAS, Proba de Stocare Arhivistică. Cu alte cuvinte, istoricul deciziilor nu poate fi șters sau modificat. Acest lucru asigură că sistemul nu este doar secret, ci și responsabil. Agenții își creează propriile amintiri. Și chiar și atunci când îmi verific identitatea, sistemul nu dezvăluie datele mele. Acest detaliu este susținut de ZKP.

Dar încă cred că atunci când evaluăm aceste sisteme, este important să luăm în considerare nu doar tehnologia, ci și structura în care funcționează. Până la urmă, eu nu am construit sistemul, eu nu am scris codul, dar abordarea Autonomys încearcă să mă includă în proces în loc să mă excludă. Faptul că deciziile agenților sunt explicabile, amintirile lor sunt stocate în lanț și sistemul este auditabil face ca conceptul de încredere să fie mai tangibil. Așa cum spune Dr. Feng: “Încrederea începe atunci când ți se oferă dreptul de a pune întrebări sistemului din interior.”

În acest moment, securitatea nu se referă doar la faptul dacă sistemul este închis sau nu, ci și la cât de mult din ceea ce se întâmplă în interior poate fi înțeles. Adevărata securitate începe cu utilizatorul care poate pune întrebări sistemului și înțelege răspunsurile pe care le primește. Deși arhitectura TEE a Autonomys poate să nu fie soluția ultimă de una singură, când este combinată cu mecanisme de logare complementare, straturi de verificare precum PoAS și soluții de protecție a identității, oferă o abordare multi-stratificată și holistică.

Faptul că Dr. Chen Feng, care are un puternic background academic în inteligența artificială, se află în spatele unei astfel de structuri detaliate demonstrează că această abordare nu este întâmplătoare, ci mai degrabă deliberată și bazată pe cercetare. În opinia mea, acesta este exact ceea ce ridică Autonomys de la a fi o inițiativă obișnuită de protecție a intimității la un cadru mai serios.

#BinanceAlpha