Lần đầu tiên tôi xem một AI tự tin sáng tạo một trích dẫn không tồn tại, tôi cảm thấy có điều gì đó sụp đổ. Không phải vì nó gây sốc - chúng ta đều biết rằng các mô hình ngôn ngữ lớn có hiện tượng ảo giác - mà vì nó được truyền đạt với sự chắc chắn tĩnh lặng như vậy. Giọng điệu rất ổn định. Logic có vẻ xứng đáng. Tuy nhiên, bên dưới, không có gì cả. Chỉ là sự kết hợp mẫu thống kê được bao bọc trong quyền lực. Khoảng cách giữa sự tự tin và sự thật là nơi mà các hệ thống như MIRA Network đang cố gắng xây dựng một nền tảng.
Khi chúng ta nói về các hiện tượng ảo giác của AI, chúng ta thường định hình chúng như những lỗi. Trên thực tế, chúng là cấu trúc. Một mô hình ngôn ngữ lớn dự đoán token tiếp theo dựa trên các phân phối xác suất được học từ các tập dữ liệu khổng lồ. Nếu nó đã thấy đủ các mẫu giống như một trích dẫn hợp pháp, một yêu cầu y tế, hoặc một tài liệu lịch sử, nó có thể tạo ra điều gì đó trông đúng ngay cả khi không phải vậy. Ở bề mặt, đây chỉ là tự động hoàn thành ở quy mô lớn. Bên dưới, đó là một động cơ nén tái cấu trúc ngôn ngữ có thể chấp nhận mà không cần truy cập vào sự thật cơ bản.
Sự phân biệt đó rất quan trọng. Bởi vì nếu mô hình không được gắn vào dữ liệu có thể xác thực vào thời điểm suy diễn, nó không thể phân biệt giữa khả thi và chính xác. Nó chỉ biết xác suất. Các nghiên cứu đã chỉ ra tỷ lệ ảo giác trong các câu hỏi mở dao động từ một chữ số thấp đến hơn 20 phần trăm tùy thuộc vào độ phức tạp của nhiệm vụ và kích thước mô hình. Con số đó một mình không phải là câu chuyện. Điều nó tiết lộ là ngay cả khi chỉ 5 phần trăm, nếu bạn triển khai một hệ thống xử lý một triệu truy vấn mỗi ngày, bạn đang tạo ra 50.000 đầu ra có thể sai. Quy mô biến các tỷ lệ lỗi nhỏ thành rủi ro hệ thống.
Đây là nơi thiết kế của MIRA Network trở nên thú vị. Ở bề mặt, nó tự giới thiệu như một lớp tin cậy cho đầu ra AI. Điều đó nghe có vẻ trừu tượng cho đến khi bạn thấy cơ chế. Ý tưởng không phải là huấn luyện lại mô hình để hoàn hảo. Thay vào đó, MIRA coi mỗi đầu ra AI là một tuyên bố có thể được xác thực. Đầu ra được phân tách thành các tuyên bố nguyên tử. Mỗi tuyên bố sau đó được kiểm tra chống lại các nguồn dữ liệu đã được neo vào mật mã hoặc được xác thực thông qua các cơ chế đồng thuận. Kết quả không chỉ là một câu trả lời, mà là một câu trả lời có chứng minh đi kèm.
Bên dưới mô tả đơn giản đó là một kiến trúc nhiều lớp. Đầu tiên, có mô hình tạo ra một phản hồi. Thứ hai, có một lớp xác thực phân tích phản hồi thành các tuyên bố. Thứ ba, có một mạng lưới các xác thực viên đánh giá độc lập các tuyên bố đó. Các đánh giá của họ được ghi lại trên một sổ cái với các chứng minh mật mã. Sổ cái đó không tồn tại để thương hiệu. Nó tồn tại để một khi một tuyên bố được xác thực hoặc bị tranh chấp, bản ghi không thể bị thay đổi một cách âm thầm.
Điều đó cho phép là tinh tế nhưng mạnh mẽ. Thay vì yêu cầu người dùng tin tưởng vào mô hình, bạn yêu cầu họ tin tưởng vào quy trình. Nếu một AI tuyên bố rằng một thử nghiệm lâm sàng bao gồm 3,000 người tham gia, hệ thống có thể đính kèm một chứng minh chỉ về mục đăng ký thử nghiệm gốc, đã được băm và đánh dấu thời gian. Nếu tuyên bố không thể được xác thực, nó sẽ bị đánh dấu. Điều đó thay đổi kết cấu của sự tương tác. Bạn không còn tiêu thụ văn bản trôi chảy. Bạn đang đọc văn bản với hóa đơn.
Có một chi phí cho điều đó. Việc xác thực tốn thời gian và tài nguyên tính toán. Các chứng minh mật mã không miễn phí. Nếu mỗi câu được chuyển qua các xác thực viên và neo vào một sổ cái, độ trễ sẽ tăng lên. Điều đó tạo ra một sự đánh đổi giữa tốc độ và độ chắc chắn. Trong một số ứng dụng, như cuộc trò chuyện thông thường, tốc độ thắng. Trong những ứng dụng khác, như soạn thảo pháp lý hoặc phân tích tài chính, một đầu ra chậm hơn nhưng được xác thực có thể đáng chờ đợi.
Hiểu được sự đánh đổi đó giúp giải thích tại sao MIRA không cố gắng xác thực mọi thứ một cách công bằng. Hệ thống có thể ưu tiên các tuyên bố có ảnh hưởng lớn. Một câu chuyện sáng tạo không cần kiểm tra trích dẫn. Một phép tính thuế thì cần. Mô hình xác thực lựa chọn đó phản ánh cách con người hoạt động. Chúng tôi không kiểm tra sự thật của mỗi câu đùa, nhưng chúng tôi kiểm tra gấp đôi các con số trước khi nộp tài liệu.
Cũng có một lớp khuyến khích. Các xác thực viên trên MIRA không phải là các thuật toán trừu tượng. Họ là những người tham gia đặt cược token và được thưởng cho việc xác thực chính xác. Nếu họ hợp tác hoặc chấp thuận các tuyên bố sai, họ sẽ có nguy cơ mất cược. Áp lực kinh tế đó được thiết kế để giữ cho lớp xác thực trung thực. Bề ngoài, nó trông giống như một cơ chế tiền điện tử. Ở bên dưới, đó là một nỗ lực để điều chỉnh các động lực sao cho sự thật có trọng lượng kinh tế.
Các nhà phê bình sẽ lập luận rằng điều này chỉ đơn giản chuyển vấn đề. Điều gì sẽ xảy ra nếu các xác thực viên có thành kiến? Điều gì sẽ xảy ra nếu dữ liệu nguồn có lỗi? Đó là những câu hỏi hợp lý. Một chứng minh mật mã chỉ đảm bảo rằng một tuyên bố phù hợp với một nguồn đã được ghi lại, không phải rằng chính nguồn đó là đúng. MIRA không loại bỏ sự không chắc chắn về nhận thức. Nó thu hẹp khoảng cách giữa tuyên bố và bằng chứng. Đó là một sự khác biệt có ý nghĩa, nhưng nó không phải là phép màu.
Khi tôi lần đầu nhìn vào mô hình này, điều khiến tôi ấn tượng là cách nó định hình lại ảo giác. Thay vì coi đó là một điều xấu hổ để giấu đi, nó xem đó như một sản phẩm phụ có thể đoán trước của các hệ thống tạo ra cần phải bị hạn chế. Nếu các mô hình là động cơ xác suất, thì việc xác thực phải là xác định. Sự đối lập đó - xác suất ở trên, chứng minh ở dưới - tạo ra một hệ thống nhiều lớp nơi sự sáng tạo và độ chính xác có thể đồng tồn tại.
Trong khi đó, kiến trúc này gợi ý về một sự chuyển mình rộng hơn trong cách chúng ta nghĩ về cơ sở hạ tầng AI. Trong nhiều năm, trọng tâm đã được đặt vào việc mở rộng quy mô các mô hình - nhiều tham số hơn, nhiều dữ liệu hơn, nhiều tính toán hơn. Động lực đó đã tạo ra một hiệu ứng khác. Khi các mô hình trở nên trôi chảy hơn, chi phí của một lỗi đơn lẻ cũng tăng lên. Càng giống với con người, đầu ra càng khiến chúng ta có xu hướng tin tưởng vào nó hơn. Điều đó làm cho những lỗi không rõ ràng nguy hiểm hơn những lỗi rõ ràng.
Bằng cách giới thiệu xác thực mật mã vào quy trình, MIRA đang âm thầm lập luận rằng giai đoạn tiếp theo của AI không chỉ là về các mô hình lớn hơn. Nó là về các khuôn khổ trách nhiệm. Cũng giống như các hệ thống tài chính dựa vào sổ cái đã được kiểm toán và các chuỗi cung ứng dựa vào khả năng truy xuất, các hệ thống AI có thể yêu cầu các dấu vết đầu ra có thể xác thực. Những dấu hiệu sớm cho thấy các cơ quan quản lý đang di chuyển theo hướng đó, đặc biệt trong các lĩnh vực như chăm sóc sức khỏe và tài chính nơi khả năng giải thích không phải là tùy chọn.
Có một hệ quả sâu sắc hơn ở đây. Nếu đầu ra AI trở thành các đối tượng có thể xác thực trên một sổ cái công khai, chúng trở thành có thể ghép lại. Một tuyên bố được xác thực có thể được sử dụng lại bởi một hệ thống khác mà không cần kiểm tra lại từ đầu. Theo thời gian, điều đó có thể tạo ra một lớp chia sẻ kiến thức đã được xác thực bởi máy. Không phải là kiến thức hoàn hảo. Nhưng là kiến thức có dấu vết kiểm toán. Đó là một nền tảng khác biệt so với mô hình phản hồi hộp đen hiện tại.
Tất nhiên, điều này chỉ hoạt động nếu người dùng đánh giá cao chứng minh. Nếu hầu hết mọi người thích câu trả lời nhanh hơn là những câu đã được xác thực, áp lực thị trường có thể đẩy các hệ thống về phía tốc độ một lần nữa. Và nếu việc xác thực trở nên quá đắt đỏ, nó có thể tập trung xung quanh một vài xác thực viên thống trị, tái tạo các nút thắt lòng tin. Những rủi ro đó vẫn tồn tại. Nếu điều này giữ vững, tuy nhiên, sự tích hợp ổn định của các đảm bảo mật mã vào đầu ra AI có thể bình thường hóa một kỳ vọng mới: rằng trí tuệ nên thể hiện công việc của nó.
Sự kỳ vọng đó đã hình thành cách các nhà phát triển xây dựng. Chúng tôi thấy sự phát sinh tăng cường truy xuất, các hệ thống trích dẫn và các công cụ giám sát mô hình. MIRA ngồi ở giao điểm của những xu hướng đó, thêm một xương sống dựa trên sổ cái. Nó gợi ý rằng các ảo giác không chỉ là một vấn đề của mô hình mà còn là một vấn đề cơ sở hạ tầng. Sửa chữa cơ sở hạ tầng, và những điểm yếu của mô hình trở nên có thể kiểm soát hơn là thảm họa.
Những gì điều này tiết lộ về hướng đi của mọi thứ là đơn giản. Khi AI trở nên gắn liền với việc ra quyết định quan trọng, lòng tin sẽ không được cấp dựa trên khả năng sử dụng ngôn ngữ. Nó sẽ được kiếm được thông qua khả năng xác thực. Sự chuyển mình yên lặng từ văn bản được tạo ra sang các tuyên bố được neo vào mật mã có thể không cảm thấy kịch tính trong khoảnh khắc. Nhưng bên dưới, nó thay đổi hợp đồng giữa con người và máy móc.
Và có thể đó là bước ngoặt thực sự. Không phải khi AI ngừng ảo giác, vì nó có thể sẽ không bao giờ dừng lại, mà là khi mọi ảo giác không còn chỗ để ẩn náu.
\u003ct-24/\u003e \u003ct-26/\u003e #CryptoVerification \u003ct-28/\u003e \u003ct-30/\u003e
\u003cm-43/\u003e \u003cc-45/\u003e \u003ct-47/\u003e