Suasana di dunia rantai sekarang benar-benar aneh, di satu sisi ada segerombolan anjing liar yang menari-nari, di sisi lain ada proyek sewa daya komputasi yang menunjukkan beberapa gambar rusak dan membual. Investor ritel masih berjudi tentang meme AI mana yang bisa naik, sementara beberapa hardcore geek yang bekerja di lapisan dasar sudah begadang membongkar lapisan verifikasi perangkat keras $ROBO . Semua orang mengira Fabric adalah perantara daya komputasi yang mengembangkan "warnet terdesentralisasi", pandangan mereka sangat sempit dan lucu, mereka tidak menyadari bahwa mereka sedang memainkan permainan besar "komputasi tepi yang dapat dipercaya".
Sekarang, inferensi AI dan rendering skala besar, daya komputasi sepenuhnya dikuasai oleh raksasa seperti AWS, Azure, dengan harga yang sangat mahal. Apakah Anda ingin memindahkan tugas komputasi ke perangkat tepi yang terdesentralisasi? Titik nyeri terbesar bukanlah latensi jaringan, tetapi "biaya berbuat jahat". Bagaimana Anda membuktikan bahwa GPU liar yang menerima tugas benar-benar menyelesaikan model besar Anda, dan bukan hanya mengembalikan hasil komputasi palsu untuk menipu biaya daya komputasi? @Fabric Foundation ini adalah titik masuk yang sangat tajam: verifikasi kriptografi berdasarkan lingkungan eksekusi tepercaya (TEE) perangkat keras. Dengan kata sederhana, jika Anda memiliki GPU yang tidak terpakai di garasi Anda yang menerima tugas rendering saya, protokol Fabric akan memaksa perangkat keras untuk menghasilkan bukti pekerjaan. Output daya komputasi, status memori ditandai di blockchain, menggunakan token untuk penyelesaian dan penyitaan.
Dulu, kami memohon kepada penyedia cloud untuk menurunkan harga, sekarang daya komputasi yang tidak terpakai di seluruh dunia akan secara otomatis melakukan penawaran untuk menerima tugas di malam hari saat harga listrik rendah untuk menghasilkan ROBO. Tentu saja, harus melewati gunung kompatibilitas GPU dengan arsitektur yang berbeda, dan harus berhati-hati terhadap studio yang menyalahgunakan untuk mendapatkan pesanan, tantangannya tidak kalah dengan membangun kembali satu set CUDA terdesentralisasi, tetapi sekali protokol dasar ini selesai, hambatannya sangat tinggi.
Saya sekarang fokus pada dua dasar: 1. Apakah mekanisme bukti perangkat keras mereka dapat mengurangi konsumsi Gas tanpa terasa di bawah daya komputasi heterogen; 2. Apakah ada tim startup AI menengah yang berani memindahkan bisnis inferensi non-kunci untuk menjalani pengujian bertahap. Saat ini, memang masih dalam tahap awal, tetapi logika dasar sudah sepenuhnya terpisah.
Apa hambatan terbesar di paruh kedua ledakan AI? Itu adalah "hegemoni daya komputasi". Jika semua nyawa diserahkan ke pusat data terpusat, industri ini pasti akan berubah. Daripada setiap hari mengambil alih koin AI palsu yang dibungkus model besar, lebih baik fokus pada protokol hardcore yang memberikan daya komputasi "detektor kebohongan". Selama perangkat tepi dapat membuktikan diri dan menghasilkan uang, perpindahan paradigma pemberdayaan daya komputasi ini tidak boleh gagal. #robo
