Tôi đã làm việc với nhiều giải pháp AI và mỗi lần tôi thấy một giới hạn giống nhau. Khi hệ thống mắc lỗi, nó không đưa ra tín hiệu. Nó tiếp tục nói như thể mọi thứ đều đúng. Đây không phải là sự cố - đây là đặc tính thiết kế. AI được tạo ra để thuyết phục, không phải để chịu trách nhiệm.
Do đó, việc đào tạo lại đơn giản không giải quyết được vấn đề. Quan trọng hơn là phân chia quy trình: riêng biệt cho việc sinh ra, riêng biệt cho việc kiểm tra. Đó là cách tôi nhìn nhận cách tiếp cận của Mira.
Tại #Mira , câu trả lời của AI trở thành vật liệu để phân tích. Nó được phân tách thành các tuyên bố riêng biệt, được đánh giá độc lập bởi các nút trong mạng. Kết quả được hình thành thông qua sự trùng khớp của các kiểm tra, chứ không phải dựa vào sự tin tưởng vào một mô hình duy nhất.
Mã thông báo $MIRA tạo ra trách nhiệm trong hệ thống này - có phần thưởng cho các kiểm tra đúng, và có hậu quả cho những sai sót. Đối với tôi, @Mira - Trust Layer of AI - đây là về kiểm soát và khả năng kiểm tra ở nơi mà "có thể đúng" không hoạt động.