Pourquoi $MIRA se concentre sur les résultats d'IA vérifiés
Un problème revient sans cesse alors que je passe plus de temps à rechercher l'IA : l'IA a l'air confiante, mais la confiance ne correspond pas à la vérité. Même si la majorité des grands modèles linguistiques d'aujourd'hui sont extrêmement puissants, ils reposent toujours sur la probabilité. Ils utilisent des modèles dans les données d'entraînement pour prédire le mot suivant. En plus d'expliquer pourquoi les hallucinations se produisent, cela fonctionne généralement bien.
Au départ, je croyais que de meilleurs modèles seraient la seule façon de résoudre le problème. des ensembles de données plus larges, une formation améliorée et une puissance de traitement accrue. Cependant, plus j'étudiais des initiatives comme