Більшість систем ШІ сьогодні працюють за простим шаблоном: ви запитуєте щось, модель відповідає, і ви або довіряєте їй, або перевіряєте самі, відповідальність залишається за користувачем, і це не масштабуються, коли системи ШІ починають виконувати більш серйозні завдання

Міра підходить до цього інакше, розбиваючи згенерований контент на окремі твердження та надсилаючи ці твердження через розподілену мережу валідаторів, які можуть бути незалежними AI-системами. Вони оцінюють кожне твердження окремо, і консенсус досягається за допомогою координації блокчейну та економічних стимулів.

Це означає, що ви не довіряєте одній моделі, ви довіряєте розподілному процесу верифікації, де валідатори мають щось на кону, а неточна верифікація має наслідки.

Міра припускає, що галюцинації продовжуватимуть існувати і будує навколо цієї реальності, замість того, щоб вдавати, що більші моделі повністю усунуть цю проблему.

Звичайно, є відкриті виклики, такі як масштабованість, затримка та забезпечення різноманітності валідаторів, але напрямок виглядає логічно. Інтелект без верифікації не може безпечно перейматися в середовище з високими ставками.

Для мене Міра менше про гіперболу AI і більше про створення рівня довіри, який дозволяє AI-системам працювати з підзвітністю, і цей перехід здається необхідним, оскільки автономність зростає.@Mira - Trust Layer of AI #Mira