На этой неделе я сравнивал ответы двух различных инструментов ИИ. Оба ответа выглядели polished и уверенными. Но когда я проверил деталь в одном из них, оказалось, что модель тихо выдумала источник. Ничего драматичного, просто небольшая галлюцинация. Тем не менее, это заставило меня задуматься о том, как часто это, вероятно, происходит без чьего-либо замечания. Вот где "Сеть Мира" становится интересной...
Мира сосредоточена на надежности, а не на сырой мощности ИИ. Вместо того чтобы доверять ответу одной модели, протокол рассматривает "выход ИИ" как нечто, требующее проверки. Когда модель генерирует контент, ответ разбивается на более мелкие утверждения. Эти утверждения затем проверяются по сети независимых моделей ИИ и валидаторов.
Результат ближе к "консенсусу вокруг информации", чем просто принятию того, что произвела одна система...
Как только эти утверждения проходят проверку, результаты могут быть закреплены в блокчейне. Это создает прозрачную запись, показывающую, как информация была проверена, что уменьшает зависимость от одного поставщика или централизованной системы.
Что мне нравится в этом подходе, так это то, что Мира не предполагает, что ИИ внезапно перестанет делать ошибки. Вместо этого она строит инфраструктуру, которая помогает фильтровать эти ошибки. В этом смысле протокол меньше о создании более умного ИИ и больше о создании "инфраструктуры доверия для знаний, созданных ИИ".