Trong hầu hết lịch sử loài người, kiến thức được bao bọc trong nhịp điệu chậm rãi của kinh nghiệm và lời chứng. Chúng ta học hỏi từ những người lớn tuổi, từ sách vở, từ các tổ chức có thời gian để tranh luận với chính mình trước khi đưa ra câu trả lời. Ngày nay, kiến thức ngày càng đến với tốc độ của máy móc. Các hệ thống trí tuệ nhân tạo tóm tắt, dự đoán, khuyên bảo và quyết định trong tích tắc. Chúng nói với sự tự tin và quy mô, và vì lý do đó, chúng đã được dệt vào y tế, tài chính, pháp luật, giáo dục và quản trị. Tuy nhiên, bên dưới sự lưu loát ấn tượng này là một cốt lõi mong manh: Các hệ thống AI không thực sự hiểu những gì chúng sản xuất. Chúng tính toán các mẫu. Chúng đoán xem điều gì nghe có vẻ đúng. Và khi mức độ rủi ro thấp, những sai lầm của chúng có thể cảm thấy vô hại hoặc thậm chí hài hước. Khi mức độ rủi ro cao, những sai lầm tương tự có thể lặng lẽ định hình lại cuộc sống.
Vấn đề lớn hơn không phải là máy móc mắc lỗi. Con người cũng vậy. Vấn đề sâu xa hơn là lỗi của AI thường trông có vẻ chắc chắn. Một sự thật ảo giác, một kết luận thiên lệch, hoặc một lời giải thích gây hiểu lầm có thể đến với ngôn ngữ bóng bẩy và uy tín toán học. Điều này tạo ra một loại rủi ro mới: không chỉ là những câu trả lời sai, mà là những câu trả lời sai trông có vẻ đáng tin cậy. Trong các trường hợp sử dụng quan trọng, như lời khuyên y tế hoặc lý luận pháp lý, khoảng cách giữa vẻ bề ngoài và thực tế trở nên nguy hiểm. Hệ thống có thể nghe có vẻ thuyết phục nhưng lại cơ bản là sai. Và vì nhiều mô hình AI được đào tạo trên dữ liệu khổng lồ nhưng không hoàn hảo, chúng có thể thừa hưởng những biến dạng của văn hóa, lịch sử và quyền lực mà không có bất kỳ cảm giác trách nhiệm nào được xây dựng sẵn. Kết quả là một công nghệ cảm thấy mạnh mẽ nhưng dễ vỡ, có khả năng mở rộng mà không có trách nhiệm.
Xã hội luôn phản ứng với những khoảnh khắc như vậy bằng các tổ chức tin cậy. Chúng ta xây dựng đánh giá đồng nghiệp cho khoa học, tòa án cho công lý, và các tiêu chuẩn kế toán cho thị trường. Những hệ thống này không loại bỏ lỗi, nhưng chúng tạo ra các quy tắc chung để xác định điều gì có thể được tin cậy. Tuy nhiên, AI đã xuất hiện trước khi có tương đương của đánh giá đồng nghiệp. Hầu hết các hệ thống hoạt động như những hộp đen, với đầu ra chủ yếu được đánh giá dựa trên tính hợp lý và tốc độ. Khi điều gì đó sai, trách nhiệm trở nên mơ hồ: mô hình, dữ liệu, nhà phát triển, hoặc người dùng. Niềm tin trở thành một vấn đề của trực giác cá nhân hơn là xác minh tập thể. Theo thời gian, điều này làm erode sự tự tin không chỉ vào công nghệ mà còn vào các quyết định con người phụ thuộc vào nó.
Đây là nơi một triết lý khác bắt đầu trở nên quan trọng. Thay vì yêu cầu máy móc trở nên tự tin hơn, chúng ta có thể yêu cầu chúng trở nên có trách nhiệm hơn. Thay vì tin vào câu trả lời của một mô hình duy nhất, chúng ta có thể yêu cầu câu trả lời đó được chia nhỏ thành các tuyên bố có thể được kiểm tra. Sự thay đổi này là tinh tế nhưng sâu sắc. Nó coi đầu ra AI không phải là một quyền lực cuối cùng mà là một đề xuất, một thứ phải trải qua một quy trình xác minh trước khi đạt được quyền được tin tưởng. Theo cách nói của con người, đó là sự khác biệt giữa việc lắng nghe một giọng nói đơn độc và lắng nghe một hội đồng phải đồng ý trước khi phát biểu. Mục tiêu không phải là sự hoàn hảo, mà là sự tin cậy được sinh ra từ cấu trúc hơn là từ sức hấp dẫn.
Mira Network xuất hiện từ sự hiểu biết này. Nó không cố gắng xây dựng một trí tuệ thông minh hơn trong sự cô lập. Nó cố gắng xây dựng một hệ thống phán xét chung. Dự án tiếp cận độ tin cậy của AI như một vấn đề phối hợp: làm thế nào nhiều mô hình độc lập có thể làm việc cùng nhau để xác thực thông tin thay vì khuếch đại những sai lầm của nhau? Câu trả lời của nó là biến các đầu ra AI phức tạp thành các tuyên bố nhỏ hơn, có thể xác minh. Mỗi tuyên bố sau đó có thể được đánh giá bởi một mạng lưới phân phối các tác nhân AI độc lập. Những tác nhân này không chỉ đơn giản là lặp lại nhau. Họ đánh giá, so sánh và tranh cãi. Sự đồng thuận của họ không dựa trên niềm tin vào một quyền lực duy nhất, mà dựa trên chứng minh mã hóa và các động lực kinh tế thưởng cho sự chính xác hơn là sự tiện lợi.
Điều làm cho cách tiếp cận này có ý nghĩa không chỉ là công nghệ mà còn là các giá trị được nhúng trong đó. Bằng cách dựa vào sự đồng thuận blockchain, Mira loại bỏ nhu cầu có một trọng tài trung tâm cho sự thật. Không có công ty hoặc tổ chức nào quyết định điều gì là đúng. Thay vào đó, tính đúng đắn trở thành điều phát sinh từ một quy trình, một quy trình có thể được kiểm tra và thách thức. Điều này phản ánh những ý tưởng dân chủ cổ xưa về tri thức: rằng sự thật mạnh mẽ hơn khi nó có thể sống sót qua sự bất đồng. Trong hệ thống này, một câu trả lời không được coi là tin cậy vì nó đến từ một mô hình quyền lực, mà vì nó đã trải qua một mạng lưới được thiết kế để phơi bày những điểm yếu của nó. Tính tin cậy trở thành một thuộc tính xã hội của máy móc, không phải là một tuyên bố tiếp thị.
Việc phân tích nội dung phức tạp thành các tuyên bố có thể xác minh là điều cực kỳ quan trọng trong thời đại thông tin sai lệch. Nhiều lỗi của AI không phải là những lời nói dối đơn giản mà là những biến dạng tinh vi được nhúng trong những lời giải thích dài. Bằng cách phân mảnh các lời giải thích này thành các đơn vị nhỏ hơn, Mira làm cho chúng có thể kiểm tra được. Mỗi tuyên bố trở thành một câu hỏi thay vì một tuyên bố. Liệu sự thật này có được hỗ trợ không? Liệu suy diễn này có hợp lý không? Liệu kết luận này có phụ thuộc vào những giả định ẩn giấu không? Mạng lưới phân phối có thể xử lý những câu hỏi này song song, giảm thiểu khả năng một con đường lý luận sai lầm duy nhất chiếm ưu thế trong kết quả. Theo thời gian, điều này tạo ra một chu trình phản hồi trong đó các mô hình không chỉ tạo ra câu trả lời, mà còn học được những loại câu trả lời nào tồn tại được sự xác minh.
Các động lực kinh tế đóng một vai trò yên lặng nhưng thiết yếu trong thiết kế này. Trong các hệ thống truyền thống, niềm tin thường phụ thuộc vào thiện chí hoặc đạo đức nghề nghiệp. Trong các hệ thống phi tập trung, nó cũng có thể phụ thuộc vào lợi ích tự thân phù hợp. Mira gắn tính đúng đắn với phần thưởng, và lỗi với chi phí. Điều này không làm cho mạng lưới trở nên cao thượng, nhưng nó làm cho sự không trung thực trở nên tốn kém. Khi các tác nhân được thưởng cho việc đóng góp vào sự đồng thuận chính xác, họ có lý do để thách thức những tuyên bố yếu thay vì hỗ trợ chúng. Theo cách này, mạng lưới phản ánh các cơ chế thị trường cũ nơi các tín hiệu giá tiết lộ thông tin. Ở đây, tín hiệu không phải là giá cả, mà là sự thật đã được xác minh. Đây là một hình thức kỹ thuật đạo đức, không phải theo nghĩa ép buộc sự tốt đẹp, mà là định hình các điều kiện nơi mà việc đánh giá cẩn thận trở thành lựa chọn hợp lý.
Tác động lâu dài của một hệ thống như vậy không chỉ là hiệu suất kỹ thuật. Nó định hình lại mối quan hệ giữa con người và máy móc. Nếu đầu ra của AI được xác minh bằng mã hóa, người dùng không còn phải chọn giữa sự tin tưởng mù quáng và sự hoài nghi hoàn toàn. Họ có thể dựa vào một quy trình xác thực rõ ràng. Sự minh bạch này quan trọng. Nó cho phép các nhà phát triển kiểm tra hành vi, các tổ chức thiết lập tiêu chuẩn, và các cá nhân hiểu tại sao một kết quả nên được tin tưởng. Theo thời gian, điều này có thể tạo ra một sự thay đổi văn hóa trong cách AI được thảo luận. Thay vì hỏi liệu một mô hình có “thông minh” hay không, chúng ta có thể hỏi liệu các tuyên bố của nó đã được xác minh chưa. Trí tuệ trở nên ít liên quan đến sự phô trương và nhiều hơn về kỷ luật.
Cũng có một khía cạnh đạo đức đối với việc phân cấp chính nó. Các hệ thống tập trung có xu hướng tập trung quyền lực, ngay cả khi được xây dựng với những ý định tốt. Chúng xác định điều gì được coi là đầu ra chấp nhận được và lỗi của ai được chấp nhận. Một giao thức xác minh phi tập trung phân phối quyền lực này. Nó không loại bỏ quyền lực, nhưng làm cho nó phân tán. Điều này làm cho việc một thiên lệch hoặc chương trình nghị sự duy nhất chiếm ưu thế trong hệ thống trở nên khó khăn hơn. Nó cũng tạo ra khoảng trống cho chủ nghĩa đa dạng. Các mô hình khác nhau, được đào tạo trên các dữ liệu khác nhau, có thể tham gia vào cùng một quy trình xác minh. Những bất đồng của họ không bị đàn áp mà được cấu trúc. Trong một thế giới mà các câu chuyện ngày càng cạnh tranh để giành tính hợp pháp, thiết kế này cung cấp một cách để cho bằng chứng, chứ không phải ảnh hưởng, quyết định.
Tất cả những điều này không gợi ý rằng công nghệ một mình có thể giải quyết vấn đề niềm tin. Sự phán xét của con người sẽ vẫn là điều cần thiết. Các giá trị không thể được tự động hóa. Nhưng cách tiếp cận của Mira gợi ý một con đường mà máy móc có thể hỗ trợ những giá trị đó thay vì phá hoại chúng. Bằng cách nhấn mạnh tính xác minh, nó thừa nhận một giới hạn đối với quyền lực của máy móc. Bằng cách nhúng sự đồng thuận, nó công nhận rằng tri thức là xã hội. Và bằng cách sử dụng mã hóa, nó đảm bảo rằng quy trình xã hội này có thể được tin cậy mà không phụ thuộc vào niềm tin cá nhân vào bất kỳ một tác nhân nào. Đây là một nỗ lực để dịch những ý tưởng cổ xưa về sự thật tập thể sang một ngôn ngữ số.
Trong tương lai, khi các hệ thống AI trở nên tự chủ hơn, nhu cầu về những cấu trúc như vậy sẽ chỉ tăng lên. Các quyết định về tài nguyên, an toàn và chính sách sẽ ngày càng được thông qua các thuật toán. Nếu những thuật toán đó không thể được tin tưởng, thì các quyết định tiếp theo cũng không thể. Mô hình của Mira cung cấp một cách để gắn kết tự động hóa với trách nhiệm. Nó không hứa hẹn rằng máy móc sẽ luôn đúng. Nó hứa hẹn rằng các tuyên bố của chúng sẽ được kiểm tra. Đây là một lời hứa yên lặng hơn, nhưng bền bỉ hơn. Nó chấp nhận sự không chắc chắn như một thực tế của cuộc sống và xây dựng một khuôn khổ để sống với nó một cách có trách nhiệm.
Có điều gì đó rất con người trong thiết kế này. Nó phản ánh các phương pháp nhận thức của chúng ta: chúng ta đặt câu hỏi, chúng ta tranh luận, chúng ta tìm kiếm sự đồng thuận không phải vì chúng ta mong đợi sự hoàn hảo, mà vì chúng ta biết chúng ta có thể sai. Bằng cách dạy máy móc hoạt động trong một cấu trúc tương tự, chúng ta không làm cho chúng giống con người hơn về cảm xúc hay ý thức. Chúng ta làm cho chúng giống hơn với các tổ chức mà chúng ta tin tưởng. Đây có thể là con đường thực tế nhất để tiến về phía trước, một con đường không theo đuổi ảo tưởng về trí tuệ hoàn hảo, mà phát triển mối quan hệ đối tác đáng tin cậy.
Cuối cùng, câu chuyện về AI không chỉ là về tốc độ hay quy mô. Nó là về việc liệu chúng ta có thể xây dựng các hệ thống tôn trọng trọng lượng của ảnh hưởng của chúng hay không. Tầm nhìn của Mira Network tự nhiên phù hợp với câu chuyện lớn hơn này. Nó giải quyết vấn đề ảo giác và thiên lệch không bằng cách phủ nhận chúng, mà bằng cách bao quanh chúng bằng quy trình. Nó biến các đầu ra cô lập thành những phán xét chung. Và nó căn cứ niềm tin không vào quyền lực, mà vào sự xác minh. Nếu cách tiếp cận này thành công, nó có thể đánh dấu một bước ngoặt trong cách chúng ta nghĩ về tri thức máy móc. Chúng ta có thể bắt đầu thấy sự thật không phải là điều được tạo ra bởi một mô hình duy nhất, mà là điều được kiếm được thông qua sự xem xét tập thể.
Một tương lai như vậy không loại bỏ rủi ro. Nhưng nó thay đổi bản chất của nó. Thay vì những lỗi vô hình ẩn sau ngôn ngữ tự tin, chúng ta có những tuyên bố rõ ràng được kiểm tra bởi các cơ chế mở. Thay vì phụ thuộc vào kiểm soát tập trung, chúng ta có sự kiên cường thông qua phân phối. Và thay vì coi AI như một nhà tiên tri, chúng ta coi nó như một người tham gia trong một hệ thống lý luận lớn hơn. Đây không phải là một cuộc cách mạng kịch tính. Đó là một quá trình xây dựng niềm tin kiên nhẫn.
Có lẽ đó là điều làm cho nó trở nên hy vọng. Trong một thời đại mê hoặc bởi những đột phá đột ngột, cách tiếp cận này coi trọng sự tin cậy chậm rãi. Nó gợi ý rằng tiến bộ thực sự của AI sẽ không chỉ được đo bằng những gì nó có thể làm, mà bằng cách nó có thể được tin tưởng một cách an toàn. Nếu máy móc phải chia sẻ trách nhiệm trong các quyết định của con người, chúng cũng phải chia sẻ trong kỷ luật của tri thức con người. Việc xây dựng kỷ luật đó vào kiến trúc của chúng không chỉ là một lựa chọn kỹ thuật. Nó là một tuyên bố về loại tương lai mà chúng ta muốn: một nơi mà trí tuệ và tính chính trực phát triển cùng nhau, và nơi niềm tin không được giả định, mà được kiếm một cách cẩn thận, tập thể.