Mira no deja que los modelos adivinen la tarea
Lo que parece ser la misma salida de IA a menudo no es la misma tarea para diferentes modelos.
Cada modelo llena los vacíos de manera diferente: suposiciones, alcance, énfasis.
Por lo tanto, el desacuerdo no siempre se trata de la verdad.
A menudo se trata de una discrepancia en la tarea.
Lo que encuentro interesante en Mira es que no comienza con la verificación.
Comienza por corregir la tarea en sí.
Al extraer afirmaciones y alinear el contexto, Mira se asegura de que cada modelo esté juzgando exactamente lo mismo.
Ese cambio suena pequeño, pero cambia lo que significa el consenso.
