Tôi đã theo dõi AI một thời gian và cảm giác đang thay đổi. Trước đây, tất cả đều tập trung vào tốc độ và sức mạnh thô; bây giờ, cuối cùng nó đang trở nên cá nhân hơn. Các mô hình lớn hơn, câu trả lời nhanh hơn, phản hồi nghe thông minh hơn. Đó là cuộc đua chính.
Nhưng gần đây tôi bắt đầu suy nghĩ về điều gì đó quan trọng hơn - làm thế nào chúng ta thực sự biết rằng AI là đúng?
Tôi đã thấy một khoảnh khắc thú vị trên @Mira - Trust Layer of AI nơi một lần triển khai đã tạm dừng xung quanh 60% đồng thuận thay vì tiến lên. Một số người có thể thấy đó là một sự chậm trễ, nhưng với tôi, nó cho thấy hệ thống sẽ ngừng lại hơn là cho phép điều gì đó không chắc chắn được thông qua.
Với việc xác minh được triển khai thông qua ứng dụng Klok và các sáng kiến Mùa 2, Lớp Tin cậy Mira đang bắt đầu trở nên thực tế.
Tôi cũng trở nên cẩn thận hơn với các đầu ra của AI. Một chi tiết nhỏ trong một kế hoạch tôi đã xem xét đã được đánh dấu trong quá trình xác minh. Nếu điều đó được đưa vào hoạt động, nó có thể tạo ra một vấn đề quy định nghiêm trọng.
Trên Mạng Mira, các người xác minh phải đặt cọc $MIRA và có nguy cơ mất nó nếu họ phê duyệt thông tin sai. Điều đó tạo ra trách nhiệm thực sự. AI không chỉ cần nghe có vẻ thông minh nữa. Nó cần phải có thể được chứng minh.#mira $MIRA
#Mira
