@Mira - Trust Layer of AI Le réseau semble moins être un projet d'IA dans le sens habituel et plus une tentative de traiter une faiblesse très familière. L'IA peut générer une quantité d'informations infinie, mais cela ne signifie pas que les informations méritent confiance. Ce sont deux choses différentes, et les gens les brouillent tout le temps.
Cela semble être le point de départ ici. Pas comment rendre l'IA plus intelligente, mais comment rendre sa sortie plus difficile à falsifier, déformer ou accepter sans vérification. On peut généralement dire quand un système est construit autour de cette préoccupation, car toute la structure change.
Avec #Mira , la réponse n'est pas traitée comme un morceau de texte fluide. Elle est divisée en revendications plus petites. Chaque revendication peut alors être examinée à travers un réseau décentralisé de modèles d'IA indépendants. C'est là que les choses deviennent intéressantes. Le système ne demande pas à un modèle de se corriger lui-même. Il crée un processus où plusieurs participants vérifient des morceaux d'information, et le consensus blockchain maintient ce processus ouvert et traçable.
Après un certain temps, il devient évident que cela concerne vraiment le transfert de confiance de la source vers la méthode. La question change de "qui a produit cette réponse ?" à "comment cette réponse a-t-elle été vérifiée ?" Ce changement semble silencieux, mais important.
Dans ce sens, $MIRA ne répond pas seulement aux hallucinations ou aux biais. Il répond au problème plus profond qui les sous-tend, à savoir que la sortie de l'IA arrive souvent finie, mais non prouvée. Mira semble se situer dans cet espace inconfortable entre utile et vérifié, et y reste juste un moment.
— Satoshi Nakameto