Одна проблема с современным ИИ проста, но разочаровывающая.
Модели могут давать уверенные ответы, которые отчасти неверны.
Эти галлюцинации не всегда очевидны. Иногда ответ выглядит структурированным и разумным. Но небольшое фактическое утверждение внутри него может быть неверным. Когда системы становятся более широко используемыми, эта неопределенность начинает иметь значение.
Вот где идея, стоящая за @Mira - Trust Layer of AI , становится интересной.
Вместо того чтобы предполагать, что одна модель ИИ должна проверять свои собственные результаты, протокол использует другой подход. Он рассматривает ответ ИИ как набор меньших утверждений. Каждое утверждение может быть проверено независимо другими моделями.
Проще говоря, ответ разбивается на части, и эти части проверяются.
Сеть координирует этот процесс. Несколько систем ИИ исследуют утверждения и представляют результаты проверки. Консенсус блокчейна затем фиксирует эти результаты в общем реестре. Криптографические доказательства помогают гарантировать, что процесс валидации прозрачен и труден для манипуляций.
Этот дизайн создает нечто вроде распределенного слоя проверки фактов.
Вместо того чтобы доверять модели или системе модерации одной организации, проверка становится сетевой деятельностью. Участники системы экономически мотивированы через токен $MIRA выполнять работу по валидации честно.
Тем не менее, идея все еще на ранней стадии.
Запуск нескольких моделей проверки требует значительных вычислений. Координация между участниками сложна. И несколько проектов исследуют аналогичную инфраструктуру для надежности децентрализованного ИИ.
Таким образом, #Mira и #MiraNetwork входят в пространство, которое, вероятно, быстро эволюционирует.
Тем не менее, основная мысль остается убедительной.
Если системы ИИ все больше формируют информацию в интернете, общий метод для проверки их утверждений может стать столь же важным, как и сами модели.
