.

In un mondo in cui l'intelligenza artificiale sta sempre più prendendo decisioni ad alto rischio — nella sanità, finanza, governance e persino guerra — ci troviamo di fronte a una domanda pressante: possiamo davvero fidarci dell'IA? Non solo delle sue intenzioni, ma dei suoi output? Possiamo essere certi che la raccomandazione di un algoritmo sia stata effettivamente calcolata come affermato, senza pregiudizi, manomissioni o scorciatoie? @Lagrange Official

Entra in Lagrange, una startup in crescita che sta costruendo silenziosamente l'infrastruttura per l'IA verificabile. La loro proposta è semplice, anche radicale: ogni output dell'IA dovrebbe venire con una prova crittografica. Pensalo come una ricevuta digitale che dice: “Sì, questa IA ha eseguito il modello giusto, sull'input giusto, e ti ha dato questo output — ecco la matematica per provarlo.”

Il loro strumento di punta, DeepProve, è il sistema più veloce finora per trasformare le previsioni del machine learning in prove a zero conoscenza impermeabili.$LA E mentre ciò suona astratto, le implicazioni sono enormi: immagina ospedali che convalidano diagnosi senza esporre scansioni private, o regolatori che confermano il modello di rischio di una banca senza sbirciare nei dati dei clienti.

Questo non è solo ricerca. Lagrange sta costruendo strumenti reali per gli sviluppatori e sta già lavorando con importanti attori nel settore crittografico, IA e hardware. E con il supporto di Founders Fund di Peter Thiel, NVIDIA, Intel e EigenLayer di Ethereum, potrebbero essere sulla strada giusta per qualcosa di grande.

Analizziamo cosa stanno facendo — e perché potrebbe diventare uno dei più importanti layer di fiducia nell'era dell'IA.

Un nuovo layer di fiducia per l'IA

La storia di origine di Lagrange è radicata in una frustrazione centrale: l'IA moderna è potente, ma opaca. Raramente sai come è stato calcolato un risultato, e spesso devi fidarti del creatore del modello. Per il fondatore e CEO Ismael Hishon-Rezaizadeh, questo non era abbastanza. Nel 2023, ha co-fondato Lagrange per risolverlo — utilizzando uno degli strumenti più avanzati della crittografia moderna: le prove a conoscenza zero (ZKP).

Le ZKP sono in un certo senso magiche. Permettono a qualcuno di dimostrare che un calcolo è stato eseguito correttamente — senza rivelare alcun dettaglio su cosa è stato calcolato. Nel caso dell'IA, significa dimostrare che una rete neurale ha elaborato un certo input e prodotto un certo output, senza rivelare l'input, l'output o il modello stesso.

Questa è l'idea centrale dietro zkML, o machine learning a conoscenza zero — ed è dove Lagrange sta guidando il gruppo.

DeepProve: Trasformare le previsioni dell'IA in garanzie crittografiche

Lanciato all'inizio del 2025, DeepProve è il motore zkML di Lagrange. Pensalo come un involucro per i modelli di IA: esegue il modello come al solito, ma produce anche una prova crittografica — un pacchetto piccolo e a prova di manomissione che conferma che il modello è stato eseguito come previsto.

Questo non è solo accademico. Gli sviluppatori possono integrare DeepProve in applicazioni del mondo reale proprio ora. Forniscigli un modello (ad esempio, un rilevatore di frodi o un classificatore di immagini mediche), esegui un'inferenza e genererà una prova concisa che tutto è stato fatto correttamente — anche se il modello è enorme o i dati sono sensibili.

Ancora meglio, quella prova può essere verificata on-chain, off-chain o ovunque tu ne abbia bisogno. Non è necessario fidarsi del fornitore del modello o controllare ogni riga di codice. Basta verificare la prova.

Cosa rende DeepProve diverso?

Il segreto di Lagrange è nella velocità e nella scala. Le prove a conoscenza zero sono potenti, ma tradizionalmente lente. Dimostrare un semplice modello di IA potrebbe richiedere ore. Questo non è praticabile per le applicazioni del mondo reale.

DeepProve cambia questo. Secondo l'azienda, è oltre 100 volte più veloce dei precedenti sistemi zkML, e in alcuni casi fino a 1000 volte più veloce. Utilizza tecniche crittografiche avanzate (come somma di controlli e tabelle di ricerca) combinate con una rete di provers decentralizzata per parallelizzare enormemente il lavoro.

Ecco come funziona in termini semplici:

Dai a DeepProve un modello di IA e un input.

Invia il pesante calcolo a una rete di provers specializzati (un po' come un cloud potenziato da GPU).

Questi provers elaborano la matematica, generano una prova e la restituiscono — tutto in secondi o meno.

Tu (o il tuo utente, o il tuo contratto smart) verifichi il risultato istantaneamente.

È come AWS per la fiducia — tranne per il fatto che è decentralizzato, verificabile e preserva la privacy.

Applicazioni del mondo reale: perché questo è importante

DeepProve non è solo per nerd della crittografia o ricercatori di IA. Sblocca casi d'uso reali e pratici che prima erano impossibili o troppo rischiosi:

Sanità: le diagnosi dell'IA possono ora venire con prova — senza esporre la tua scansione, il tuo nome o la logica proprietaria del modello.

Finanza: i prestatori possono dimostrare che il loro modello di scoring del credito è stato eseguito correttamente, senza mostrare il loro algoritmo o il tuo reddito.

Web3 & DeFi: DAOs e dApps possono verificare le decisioni AI off-chain (come governance o bot di trading) senza portare logiche sensibili on-chain.

App cross-chain: DeepProve funziona attraverso le catene, aiutando i protocolli ad aggregare dati o verificare condizioni in modo senza fiducia.

Il tema comune: verificabilità senza esposizione. In un mondo inondato di fake news, deepfake, IA a scatola nera e bot malevoli, questa è una promessa convincente.

Una rete di partner e sostenitori in crescita

Lagrange non sta costruendo questo da solo. Infatti, è già connesso a alcuni dei più grandi ecosistemi nella tecnologia e nella crittografia:

NVIDIA ha portato Lagrange nel suo programma Inception — un importante riconoscimento della sua rilevanza nell'IA.

Intel sta collaborando con Lagrange per l'accelerazione hardware delle prove ZK.

È un core EigenLayer AVS — il che significa che la sua rete di provers è protetta dal massiccio set di validatori di Ethereum.

Si integra con catene come zkSync, Polygon, Base (Coinbase), Mantle e LayerZero.

È anche sostenuto da Binance Labs, 1kx, Maven 11 e Archetype, tra gli altri.

Il loro round di finanziamento seed, guidato da Founders Fund, ha raccolto 13,2 milioni di dollari a metà 2024 — e il finanziamento totale ora si avvicina a 18 milioni di dollari. La tecnologia di Lagrange è anche in fase di test da parte di importanti fornitori di infrastrutture crittografiche come Coinbase Cloud, Nethermind e il braccio di staking di Kraken.

In breve: non stanno solo costruendo matematica crittografica interessante in un vuoto. La stanno integrando direttamente in come funzionerà la prossima ondata di applicazioni Web3 e IA.

Cosa c'è dopo: Da ricevute di IA a trasparenza dell'IA

Lagrange ha grandi piani. Il loro tooling zkML è solo l'inizio. Prossimo passo:

Supportando modelli più grandi e complessi (inclusi i trasformatori e i LLM).

Abilitare le prove di addestramento, non solo di inferenza.

Espandendo la loro rete di provers decentralizzati per supportare più app e catene.

Lancio di “Euclid,” un coprocessore alimentato da ZK per interrogare grandi dati attraverso le catene.

A lungo termine, vogliono che la verifica crittografica diventi standard per l'IA come l'HTTPS lo è per i siti web. Ogni output, ogni modello, ogni decisione — dimostrabile, privata e pronta per l'audit.

Come ha detto Hishon-Rezaizadeh, “Ogni tecnologia trasformativa ha bisogno del suo layer di fiducia. Per l'IA, è la verifica crittografica.”

Riflessioni finali: Perché Lagrange è importante

Nel 2025, l'IA non è più una curiosità. Sta scrivendo codice, raccomandando farmaci, rilevando frodi e indirizzando aziende. Ma troppo spesso, non sappiamo cosa stia facendo — o perché. Lagrange offre un nuovo percorso: un'IA che si prova da sola.

Non stanno cercando di rendere i modelli più intelligenti. Li stanno rendendo onesti. In un momento in cui la fiducia è scarsa, questo potrebbe essere l'aggiornamento più importante che possiamo dare all'intelligenza artificiale.

$LA

LABSC
LA
0.2877
+1.16%

#lagrange