Ayer hablamos sobre la confianza. Hoy — sobre por qué surgió un problema con ella en primer lugar.
Las alucinaciones de IA suenan como algo divertido. Como si el modelo simplemente “confundiera algo”. Pero si se observa detenidamente, no es una coincidencia ni un error en el código.
Grandes modelos de lenguaje, como OpenAI o Google, no “saben” hechos como lo sabe una persona. No tienen una base interna de verdad. Pronostican la siguiente palabra en función de la probabilidad.
Si hay suficientes datos, la respuesta parece precisa.
Si no, el modelo aún responderá. Y lo hará con confianza.
Aquí está el problema: el sistema no tiene un mecanismo interno de duda. No se detendrá y dirá: “No estoy segura”. Construirá la construcción más probable. Y nosotros la tomaremos como un hecho.
En la mayoría de los casos son trivialidades. Pero cuando se trata de finanzas, medicina o cuestiones legales, un error seguro puede costar caro.
Y aquí hay un punto importante: las alucinaciones no se pueden simplemente “arreglar con un parche”. Surgen de la propia arquitectura de los modelos. Sí, se pueden reducir a través de reentrenamiento, filtrado, mecánicas de RLHF. Pero eliminarlas por completo es difícil.
Por eso la pregunta pasa de “cómo hacer que el modelo sea más inteligente” a “cómo verificar sus respuestas”.
Y aquí es donde aparece Mira.
La idea no es cambiar la naturaleza de la IA. Sino añadir un mecanismo externo para verificar las afirmaciones. Para que el resultado pueda ser validado a través de un sistema de validación descentralizado.
En palabras simples: si la IA se equivoca con confianza, se necesita una capa que verifique esa confianza.
Mañana es lógico analizar: cómo exactamente Mira lo implementa técnicamente.
\u003cm-26/\u003e\u003ct-27/\u003e\u003cc-28/\u003e