0,8 secondes plus longues que prévu. C'est ce qui m'a d'abord fait hésiter.

La réponse est revenue de Mira, mais pas immédiatement. J'étais habitué aux réponses à modèle unique qui apparaissaient presque instantanément. Ici, il y avait ce léger retard. Rien de dramatique. Juste assez longtemps pour que je vérifie la console deux fois pour voir si quelque chose était bloqué.

Ce n'était pas le cas.

Trois validateurs avaient répondu. Un a signalé une revendication concernant une date limite réglementaire. Un autre modèle a marqué la même phrase comme "confiance faible". Le modèle original semblait complètement sûr à ce sujet. Style d'hallucination classique. Ton confiant. Formulation claire. Date totalement incorrecte.

La partie étrange n'était pas que l'erreur se soit produite. Je vois cela constamment avec des modèles plus grands. Ce qui m'a surpris, c'est comment le désaccord est apparu.

Au lieu d'essayer de "paraître plus intelligent", le système a essentiellement ralenti et a demandé à d'autres modèles ce qu'ils en pensaient. Pas des dizaines. Juste un petit quorum. Trois sur cinq de seuil d'accord sur cette revendication. La phrase a été déclassée.

Ce petit mécanisme change le modèle d'échec.

Avec des modèles autonomes plus grands, les hallucinations évoluent généralement avec la confiance. Plus le modèle semble bon, plus il est difficile de détecter quand il se trompe. Ici, le ton est devenu légèrement maladroit lorsque les modèles étaient en désaccord. On pouvait voir l'incertitude s'infiltrer dans la sortie.

C'est moins élégant.

Mais peut-être que c'est le but.

La précision ne vient pas du fait de rendre le modèle plus grand. Elle vient de laisser d'autres modèles argumenter avec lui pendant environ 600 millisecondes avant que la réponse ne soit finalisée. Ce qui n'est pas long... mais apparemment assez long pour qu'une hallucination perde son autorité.

@Mira - Trust Layer of AI $MIRA #Mira