Je pensais que les problÚmes de confiance en l'IA étaient liés aux taux de précision.
Mira le fait ressembler davantage à un problÚme de responsabilité.
Lorsqu'un systĂšme d'IA fait une erreur, les dĂ©gĂąts ne sont pas statistiques â ils sont contractuels. Quelqu'un a agi sur cette sortie. Quelqu'un l'a approuvĂ©e. Quelqu'un possĂšde les consĂ©quences.
Ce qui est intéressant dans la direction de Mira, c'est qu'elle ne se contente pas de demander si une réponse est probablement correcte. Elle demande si le processus d'acceptation de cette réponse est défendable.
C'est un changement subtil mais important.
La précision améliore les modÚles.
La défendabilité améliore les systÚmes.
Alors que l'IA s'implante dans la finance, la conformité et les flux de travail à forte automatisation, « probablement juste » ne suffira pas. Ce qui compte, c'est de savoir si la sortie a passé par une structure qui répartit le risque au lieu de le concentrer.
L'avenir de l'adoption de l'IA ne dépendra pas d'un texte plus intelligent.
Il dépendra de qui peut dire, avec confiance,
« Cela a été vérifié selon des rÚgles sur lesquelles nous sommes tous d'accord. »
@Mira - Trust Layer of AI #mira $MIRA