Une chose que je trouve intéressante à propos du réseau Mira est la façon dont il gère la confiance. Au lieu d'espérer que les nœuds se comportent bien, il crée une pression économique qui rend l'honnêteté le meilleur choix.

Voici l'idée simple.

Si vous souhaitez exécuter un nœud vérificateur sur Mira, vous devez miser $MIRA tokens. Cette mise est votre implication dans le jeu. En retour, vous pouvez participer à la vérification des sorties d'IA et gagner des récompenses du réseau.

Mais si un nœud commence à agir de manière malhonnête ou paresseuse, une réduction entre en jeu, ce qui signifie qu'une partie de cette mise $MIRA peut être retirée. Ainsi, le système pousse naturellement les nœuds à se comporter correctement.

L'important est que la sanction n'est pas déclenchée par une seule erreur. La vérification par IA n'est pas parfaite, et Mira le sait. Ce que le réseau recherche plutôt, ce sont des modèles au fil du temps.

Voici quelques comportements qui soulèvent des drapeaux rouges.

1. Être constamment en désaccord avec le consensus

Chaque affirmation est vérifiée par plusieurs nœuds vérificateurs. Si un nœud vote à plusieurs reprises contre le consensus final de manière systématique plutôt qu'accidentelle, cela commence à sembler suspect. Une mauvaise réponse est acceptable. Un modèle de désalignement ne l'est pas.

2. Deviner au hasard
Certaines tâches de vérification sont des choix simples oui/non ou plusieurs options. Un nœud paresseux pourrait essayer de simplement deviner pour éviter de faire une véritable inférence de modèle.

Mais statistiquement, deviner s'effondre rapidement. Sur plusieurs tâches, la probabilité de deviner correctement de manière cohérente diminue considérablement. Mira suit les modèles de précision, donc les nœuds qui ressemblent à ceux qui devinent au lieu de raisonner peuvent être signalés.

3. Similitude suspecte ou copie
Le réseau analyse également comment les nœuds répondent au fil du temps. Si les réponses d'un nœud ressemblent à celles des autres ou soumettent des réponses préfabriquées sans véritable inférence, le modèle devient évident. La distribution des tâches aléatoires aide à exposer cela.

4. Manipulation coordonnée
Si un groupe de nœuds essaie de pousser des votes incorrects pour influencer les résultats, le système détecte le modèle à travers l'historique des réponses et les comparaisons de consensus. Réussir cela nécessiterait de contrôler une grande partie du réseau mis en jeu, ce qui devient économiquement irréaliste.

5. Vérification paresseuse
Les nœuds sont censés réellement effectuer des inférences lors de la vérification des affirmations. Réutiliser des réponses périmées ou contourner le processus peut apparaître comme des anomalies statistiques à travers de nombreuses vérifications.


Ce qui est astucieux dans la conception de Mira, c'est qu'elle transforme la vérification en un jeu économique.

  • Les nœuds honnêtes gagnent des récompenses grâce aux frais de vérification.

  • Un comportement malhonnête risque de perdre son enjeu.

  • Au fil du temps, l'historique des données rend la détection d'anomalies encore plus forte.

Donc, au lieu de compter sur la confiance, Mira construit un système où l'honnêteté est tout simplement la stratégie la plus rentable.

Et c'est une grande raison pour laquelle le réseau peut maintenir une précision vérifiée de 95 % ou plus tout en se développant à travers des millions, même des milliards de résultats d'IA.

En résumé :

La sanction n'est pas là pour punir de petites erreurs. Elle est là pour éliminer les nœuds qui montrent des modèles clairs de devinette, de paresse ou de manipulation.

Les acteurs malveillants sont éliminés.

Les nœuds honnêtes continuent de gagner.

@Mira - Trust Layer of AI #mira $MIRA