Tôi đã tìm hiểu về Mạng lưới Mira một thời gian rồi, và càng đọc, tôi càng nhận ra rằng nó không thực sự là một "dự án AI" theo nghĩa thông thường. Đó là một dự án xác minh. Sự khác biệt đó cảm thấy tinh tế lúc đầu — nhưng không phải vậy.
Hầu hết các đội đang đua để xây dựng các mô hình thông minh hơn. Mira, thay vào đó, đang đặt ra một câu hỏi lặng lẽ hơn: điều gì xảy ra sau khi mô hình phát biểu? Thiết kế phân tích tuyên bố của họ thực sự nổi bật với tôi. Thay vì coi phản hồi của AI như một khối sự thật lớn, họ chia nó thành các tuyên bố nhỏ, có thể kiểm tra và phân phối chúng qua các người xác minh độc lập. Đó là một ý tưởng đơn giản, nhưng nó giải quyết một điều gì đó thực tế — lỗi tương quan. Nếu nhiều hệ thống đánh giá các tuyên bố riêng lẻ, sự đồng thuận trở nên có thể đo lường, không chỉ là một điểm số tự tin được bọc trong ngôn ngữ kỹ thuật.
Việc neo các biên nhận xác minh trên chuỗi cũng cảm thấy có chủ ý, đặc biệt trong các môi trường tài chính hoặc tuân thủ nặng nề, nơi mà các dấu vết kiểm toán quan trọng hơn các bản demo hào nhoáng.
Tôi vẫn rất thận trọng lạc quan. Cơ sở hạ tầng xác minh không thu hút tiêu đề, nhưng nếu các hệ thống tự trị sẽ xử lý giá trị thực, thì niềm tin không thể là một suy nghĩ sau.
