Nuove regole per l'affidabilità dell'intelligenza artificiale. Il nuovo approccio rivelato il 31 luglio è particolarmente interessante, poiché affronta specificamente la logica sottostante al pensiero dell'intelligenza artificiale, trasformando il suo pensiero ambiguo in prove logiche tracciabili.

L'uso dell'intelligenza artificiale al giorno d'oggi è un po' confuso: so che fornisce un risultato, ma non capisco la logica sottostante. Ad esempio, se un'intelligenza artificiale medica dice "questo è un tumore benigno", perché lo dice? Oppure se un drone di un sistema di difesa identifica un obiettivo, qual è la base di ciò? In passato era impossibile approfondire questo argomento.

Ma la guida al pensiero di DeepProve può farlo: utilizzare la tecnologia di crittografia per suddividere la logica decisionale dell'intelligenza artificiale in "prove verificabili" senza rivelare i parametri interni del modello o i dati di privacy dell'utente. #LagrangeLA

Questo è di fondamentale importanza

Essendo una delle quattro principali capacità di prova su cui si concentra DeepProve, la prova di inferenza non è solo un concetto. Con l'accelerazione dell'hardware sviluppato in collaborazione con NVIDIA e Intel, l'intelligenza artificiale non solo sarà in grado di produrre risultati rapidi, ma potrà anche spiegare chiaramente le ragioni.

#LagrangnOfficial $LA @Lagrange Official

LABSC
LA
--
--

A