#walrus $WAL
Les systèmes d'IA échouent lorsque leurs données d'entraînement sont silencieusement modifiées, censurées ou remplacées. La plupart des couches de stockage ne peuvent pas prouver que les données sont restées exactement les mêmes au fil du temps.
Walrus résout ce problème en rendant les données d'entraînement vérifiables, immuables une fois engagées, et toujours récupérables. Les modèles peuvent prouver sur quelles données ils ont été formés au lieu de faire confiance à un fournisseur de stockage.
Lorsque les décisions de l'IA ont de réelles conséquences, l'intégrité des données n'est pas optionnelle.


