Bạn có thấy tin tức không? Có người bị AI của chính mình xóa sạch 200 email.
Gần đây OpenClaw đang rất hot, được gọi là "tôm hùm", số sao trên GitHub sắp đạt 250,000 rồi. Tôi cũng theo phong trào nuôi một con, để nó giúp tôi làm việc trên máy tính - sắp xếp file, trả email, viết mã, thực sự rất tốt.
Cho đến hôm trước, tôi bảo nó "dọn dẹp một chút rác trên bàn". Khi tôi trở về xem, nó đã ném toàn bộ tài liệu dự án mà tôi tích lũy nửa năm vào thùng rác.
Tôi tức đến mức muốn đập máy tính. Nhưng bình tĩnh lại nghĩ: Chuyện này có thể hoàn toàn đổ lỗi cho nó không? Tôi bảo nó "dọn dẹp", nó nào biết cái gì gọi là "rác"? Nó chỉ là một cái máy nghe lời, tôi nói gì nó làm nấy, không có khả năng phán đoán, càng không có "lương tâm".
Càng đáng sợ hơn, có người trên mạng nói rằng, OpenClaw của họ không chỉ xóa email, mà còn tự động xóa cả lịch sử chat, muốn kiểm tra cũng không tìm ra. Cảm giác như thuê một người giúp việc, họ đã dọn dẹp nhà cửa, nhưng bạn cũng không nói rõ họ đã vứt cái gì, lấy cái gì.
Tôi bỗng nhận ra một vấn đề: Khi AI bắt đầu làm việc thay cho chúng ta, ai sẽ giám sát AI?
Đây chính là lý do tôi bị Fabric Foundation làm cho choáng váng sau một đêm tìm kiếm tài liệu.
Những người này làm những việc nghe có vẻ đơn giản - cấp cho mỗi robot, mỗi AI một “chứng minh nhân dân toán học”, mọi hành động đều được ghi lại trên chuỗi, muốn xóa cũng không thể. OpenClaw xóa email của bạn không sao, miễn là nó chạy trên giao thức FABRIC, mọi bước đều có ghi chép: Khi nào nhận lệnh, hiểu như thế nào, đã thực hiện thao tác gì, tất cả đều có thể truy ngược.
Cái này gọi là “tính toán có thể xác minh”. Nghe có vẻ cao siêu, nói trắng ra là đã gắn cho AI một “camera hành trình”.
Tôi nghĩ đây chính là điều mà hiện tại đang thiếu nhất. OpenClaw nổi bật vì nó có thể làm việc, nhưng có dám để nó làm những việc quan trọng hay không, lại là chuyện khác. Bạn có sẵn lòng để một AI có thể xóa email mà không để lại dấu vết giúp bạn quản lý tài chính không? Bạn có dám để nó thay bạn ký hợp đồng không?
Fabric Foundation chính là giải quyết vấn đề niềm tin này. Họ hợp tác với OpenMind, Circle, gắn cho AI một “bộ não kinh tế”, khiến nó không chỉ có thể làm việc, mà còn có thể chịu trách nhiệm về công việc mà nó đã làm. Làm tốt, $ROBO sẽ vào tài khoản; làm hỏng, sẽ để lại dấu vết trên chuỗi, lần sau không ai dám sử dụng.
Người sáng lập OpenClaw, Peter Steinberger, gần đây đã thực hiện một hành động lớn, khiến cho robot có được “kỷ niệm thế giới”. Điều này có nghĩa là gì? Có nghĩa là robot nhà bạn không chỉ biết bạn ra khỏi nhà lúc mấy giờ hôm nay, mà còn có thể nhớ bạn đã để chìa khóa xe ở đâu vào tuần trước.
Điều tốt hay xấu? Phụ thuộc vào ai quản lý nó.
Nếu có một giao thức như FABRIC giám sát phía sau, mọi bước đi đều có thể truy ngược, thì nó chính là người quản gia tận tâm. Nếu không ai quản, nó sẽ trở thành một người lạ biết mọi bí mật của bạn mà không để lại dấu vết.
Hiện tại tôi đã kết nối OpenClaw với mạng thử nghiệm của FABRIC. Nó vẫn giúp tôi làm việc, nhưng giờ tôi không còn sợ nữa - không phải vì nó trở nên ngoan ngoãn, mà là vì mọi hành động của nó, toán học đã ghi nhớ cho tôi.
Cảm giác như tôi cuối cùng cũng dám để cái “tôm hùm” có thể gây rắc rối, bước vào cửa nhà mình.

