Я раньше думал, что проблемы доверия к ИИ связаны с уровнями точности.
Мира заставляет чувствовать это больше как проблему ответственности.
Когда система ИИ делает ошибку, ущерб не статистический — он контрактный. Кто-то действовал на основе этого вывода. Кто-то одобрил это. Кто-то несет ответственность за последствия.
Что интересно в направлении Мира, так это то, что она не просто спрашивает, вероятно ли, что ответ правильный. Она спрашивает, является ли процесс принятия этого ответа обоснованным.
Это тонкий, но важный сдвиг.
Точность улучшает модели.
Обоснованность улучшает системы.
По мере того как ИИ проникает в финансы, соблюдение норм и рабочие процессы с высокой автоматизацией, "вероятно правильно" будет недостаточно. Важно, прошел ли вывод через структуру, которая распределяет риск, а не концентрирует его.
Будущее принятия ИИ не будет зависеть от более умного текста.
Оно будет зависеть от того, кто сможет сказать с уверенностью,
"Это было проверено по правилам, на которых мы все согласились."
@Mira - Trust Layer of AI #mira $MIRA