Недавно я провёл простой эксперимент: задал нескольким ИИ-системам один и тот же вопрос и сравнил ответы. Формулировки отличались, но почти все звучали уверенно. Проблема в том, что уверенность не всегда означала правильность.
ИИ хорошо умеет производить ответы, но гораздо хуже — подтверждать их достоверность. При этом сама индустрия чаще обсуждает мощность моделей, скорость или масштаб данных, а не то, как проверять результат.
В какой-то момент возникает простой вопрос: если системы всё чаще дают рекомендации, как убедиться, что их выводы можно проверить? Именно здесь мне показался интересным подход #Mira . Проект не пытается создать ещё одну модель ИИ. Вместо этого он строит слой проверки поверх уже существующих систем.
Идея выглядит довольно простой: ответы ИИ могут проходить независимую проверку через сеть участников, которые подтверждают или оспаривают результат. В итоге важным становится не только сам ответ, но и процесс его верификации.
По сути, речь идёт о создании инфраструктуры доверия. Возможно, главная ценность таких систем в том, чтобы научиться лучше проверять информацию.