Мира:
Система, основанная на консенсусе, для проверки вывода ИИСовременный ИИ кажется магическим. Мы задаем вопрос и получаем ответ в течение нескольких секунд. Мы назначаем задание, и оно выполняется немедленно. Но в этой магии есть что-то опасное. Лучший ИИ может давать неверные или предвзятые ответы с уверенностью. Примером может служить ситуация, когда чат-бот авиакомпании создал фальшивую политику возврата денег, и клиент на самом деле потерял деньги, а авиакомпания должна была оплатить счет. Такие сфабрикованные утверждения называются галлюцинациями, и они довольно распространены. В одном исследовании медицинского чат-бота исследователи установили, что 50-80 процентов времени ИИ лгал, а не говорил правду. Кратко, современный ИИ умен и слаб. Искусственный интеллект сегодня кажется почти магическим. Вы задаете вопрос, и через несколько секунд появляется подробный ответ. Вы назначаете задачу, и она выполняется мгновенно. Скорость впечатляет, язык уверенен, а результаты часто кажутся умными. Но за этим гладким опытом скрывается тихий риск. ИИ-системы на самом деле не понимают правду так, как это делают люди. Они предсказывают шаблоны на основе вероятностей. Когда эти предсказания оказываются неверными, система может производить информацию, которая звучит совершенно точно, но является полностью ложной. Эти уверенные ошибки, часто называемые галлюцинациями, являются одной из самых серьезных слабостей современного ИИ. Проблема становится еще более тревожной в таких областях, как медицина, право, финансы или публичная информация, где одно неточное утверждение может иметь реальные последствия. Модели ИИ обучаются на огромных наборах данных, которые отражают как знания, так и человеческие предвзятости. В результате они могут непреднамеренно повторять скрытые предвзятости или представлять неполные перспективы. Увеличение размеров и сложности моделей не устраняет эти проблемы автоматически. Фактически, часто существует компромисс между креативностью, точностью и справедливостью. Ни одна отдельная модель не может гарантировать безупречную надежность. Это разрыв, который сеть Mira призвана устранить. Вместо того чтобы просить пользователей доверять одной мощной ИИ-системе, Mira вводит дополнительный уровень проверки, основанный на консенсусе. Идея проста, но мощна: не полагайтесь на один голос, когда множество независимых голосов могут оценивать одно и то же утверждение. Вдохновленный логикой блокчейн-систем, где распределенные узлы соглашаются по транзакциям, а не доверяют одному авторитету, Mira применяет аналогичный принцип к выводу ИИ. Когда ИИ генерирует ответ, Mira не принимает его как единый блок информации. Она разбивает содержание на более мелкие, поддающиеся проверке утверждения. Каждое утверждение затем отправляется по сети независимых моделей-верификаторов. Эти модели оценивают утверждение и голосуют за его точность. Если сильное большинство согласны, утверждение подтверждается. Если консенсус слабый, система помечает его как неопределенный. Финальный результат фиксируется прозрачным и стойким образом, создавая аудируемую запись проверки, а не слепое принятие. Децентрализация играет центральную роль в этом дизайне. Большинство современных продвинутых ИИ-систем разрабатываются и контролируются небольшим числом крупных организаций. Эта концентрация создает потенциальные слепые зоны и единые точки отказа. Mira распределяет процесс проверки между разнообразными моделями и участниками. Разные системы, обученные на разных данных, приносят разнообразные перспективы, что повышает вероятность выявления ошибок или предвзятостей. Мнения аутсайдеров естественным образом фильтруются через большинство согласий. Чтобы поощрять честное участие, сеть использует механизм стейкинга, связанный с ее родным токеном, $MIRA . Участники, которые проверяют утверждения, должны заблокировать токены в качестве залога. Когда их голоса совпадают с консенсусом, они получают вознаграждения. Повторяющееся нечестное или неосторожное поведение может привести к штрафам. Эта экономическая структура предназначена для того, чтобы сделать правдивую проверку более прибыльной, чем манипуляции. По мере того как больше участников присоединяются и ставят токены, сеть становится сильнее и более устойчива к атакам. Конфиденциальность также тщательно рассматривается. Поскольку выводы ИИ могут содержать чувствительную информацию, система распределяет фрагментированные утверждения по узлам, так что ни один отдельный участник не видит полного контекста. Сертификаты проверки подтверждают, прошли ли утверждения консенсус, не раскрывая оригинальные данные. Со временем ожидается, что дополнительные криптографические методы еще больше укрепят этот уровень конфиденциальности. Более широкая концепция выходит за рамки простой проверки фактов. Mira стремится поддерживать критически важные отрасли, где надежность имеет решающее значение, от диагностики в области здравоохранения до юридического анализа и оценки финансовых рисков. Объединив несколько моделей в структурированном процессе консенсуса, некоторые реализации, как сообщается, достигли уровней точности, значительно превышающих результаты одиночных моделей. Долгосрочная амбиция еще более амбициозна: экосистема, где ИИ-системы одновременно генерируют и проверяют информацию, снижая зависимость от дорогостоящего человеческого контроля, сохраняя при этом безопасность. Конечно, существуют и трудности. Проверка требует дополнительных вычислительных ресурсов и может ввести задержки по сравнению с ответами одиночной модели. Креативный или сильно субъективный контент сложнее свести к простым истинным или ложным утверждениям. Построение действительно децентрализованной сети также требует времени и сильного раннего управления. Тем не менее, несмотря на эти препятствия, основная идея решает глубокую структурную проблему в области искусственного интеллекта. Поскольку ИИ все больше внедряется в повседневную жизнь и в принятие решений, имеющих высокие ставки, доверие не может основываться только на скорости или уверенности. Оно должно строиться на проверке. Сеть Mira представляет собой попытку перейти от централизованного авторитета к распределенному согласию, от доверия к одной мощной системе к валидации информации через коллективный интеллект. Если эта модель окажется эффективной, будущее ИИ может определяться не только тем, насколько умным он становится, но и тем, насколько надежно он может доказать свою собственную правду.ИИ никуда не уходит. Он становится все более мощным с каждым годом. Вопрос не в том, будет ли ИИ формировать будущее. Вопрос в том, построим ли мы защитные барьеры, достаточно сильные, чтобы доверять ему. Сеть Mira представляет собой одну из самых смелых попыток решить скрытые слабости ИИ, такие как галлюцинация и предвзятость, не делая одну модель совершенной, а делая многие модели ответственными друг перед другом. Если это удастся, будущее ИИ будет не только быстрым и умным. Оно будет проверенным.#Mira \u003ct-14/\u003e\u003ct-15/\u003e \u003ct-17/\u003e \u003ct-19/\u003e \u003cc-21/\u003e