Una cosa che ho notato mentre seguivo lo spazio dell'Intelligenza Artificiale è quanta attenzione venga dedicata ai modelli di Intelligenza Artificiale. Ogni mese appare un nuovo sistema di Intelligenza Artificiale che ottiene punteggi più alti nei test o produce risultati più puliti e la conversazione si trasforma rapidamente in una competizione tra i modelli di Intelligenza Artificiale.

Più studio come questi sistemi di Intelligenza Artificiale vengano effettivamente utilizzati, più mi sembra che la capacità non sia la sfida più grande. La fiducia nell'Intelligenza Artificiale lo è.

Man mano che i modelli di Intelligenza Artificiale diventano più convincenti, i loro errori diventano anche più difficili da notare. Un sistema può produrre una risposta che suona sicura e ben strutturata, pur essendo ancora sbagliata. Più il linguaggio dei modelli di Intelligenza Artificiale diventa migliore, più è facile che quegli errori si mescolino in risultati che sembrano affidabili.

Ecco perché ho iniziato a pensare all'Intelligenza Artificiale meno come a uno strumento e più come parte di un sistema di Intelligenza Artificiale più ampio. In molti campi, le decisioni raramente si basano su una sola fonte. La scienza ha la revisione tra pari, la finanza ha le verifiche e l'aviazione ha strati di controlli.

La fiducia nell'Intelligenza Artificiale potrebbe crescere in questo modo. Attraverso sistemi che possono mettere in discussione, verificare e correggere i propri risultati di Intelligenza Artificiale nel tempo.

I modelli di Intelligenza Artificiale forti avranno sempre importanza.. I sistemi costruiti attorno ai modelli di Intelligenza Artificiale possono infine determinare se quei modelli di Intelligenza Artificiale possano davvero essere fidati.

@Mira - Trust Layer of AI

#Mira

$MIRA #Createrpaid