Смотря на прокручиваемый на экране журнал генерации доказательств, я осознал, что вся индустрия впала в коллективное психическое расстройство. С одной стороны, мы высокопарно говорим о децентрализации, анти-цензуре и защите конфиденциальности Web3; с другой стороны, почти все высокопроизводительные ZK-приложения, которые мы создаем, в конечном итоге вынуждены полагаться на централизованные, дорогие и даже монополизированные крупными компаниями кластеры высокопроизводительных вычислений. Это чувство разрыва особенно сильно, когда мы используем существующую ZK-инфраструктуру. В последние дни я углубился в техническую документацию Fabric Cryptography, пытаясь вырваться из этих маркетинговых слов и понять, что на самом деле означает тот «проверяемый вычислительный уровень», который они пытаются построить.

Теперь конкурентная ситуация очень интересна. RISC Zero успешно работает на программном уровне, ZKVM позволяет разработчикам писать код на Rust и затем генерировать доказательства, этот опыт действительно гладкий, но цена огромных вычислительных затрат. Это как если бы вы писали низкоуровневые драйверы на высокоуровневом языке, удобно, но потеря производительности вызывает боль. С другой стороны, такие проекты, как Aleo, внедряют свои собственные системы доказательств, пытаясь создать закрытую сеть аппаратных стимулов. А подход Fabric очень хитроумный: он не просто хочет продавать лопаты, он хочет переопределить, как лопаты создаются.

Я все время размышляю, где же настоящая крепость между конкурирующими продуктами. Это алгоритм? Очевидно, что нет, алгоритмы открыты. Это финансирование? Деньги венчурных капиталистов в конечном итоге закончатся. Настоящая крепость — это эффективность вычислительной архитектуры. Существующие CPU при обработке криптографических операций большая часть транзисторов «пустует» или выполняет бесполезную маршрутизацию. Это как если бы вы использовали Ferrari для грузоперевозок: двигатель мощный, но грузоподъемность не позволяет. Архитектура VPU Fabric, по моему пониманию, превращает эту Ferrari в специализированный грузовой высокоскоростной поезд. Она убирает много не нужных для общего вычисления предсказаний ветвлений и логики внеочередного выполнения, тратя весь бюджет транзисторов на модули вычислений и векторную обработку.

Радикальные реформы на аппаратном уровне приводят к резкому снижению затрат. То, что мы сейчас считаем дорогим ZK Rollup и медленным расширением Ethereum, в конечном счете связано с тем, что предельные затраты на генерацию доказательств слишком высоки. Если Fabric сможет снизить эти затраты на два порядка, многие сейчас кажущиеся нереальными сценарии применения, например, полностью приватные цепочные ордеры или цепочная аналитика данных на основе FHE, моментально станут осуществимыми. Это настоящая выгода от технологического прогресса, а не простая спекуляция активами.

Но у меня есть глубокие опасения. Стартапы в области аппаратного обеспечения — это игра на грани жизни и смерти. Сложность цепочки поставок намного превышает разработку программного обеспечения. Fabric необходимо не только справиться с проектированием чипов, но и с компиляторами, драйверами, всей программной стеком. Это огромная работа. Я видел слишком много проектов, которые заявляли о переходе от ПО к аппаратному обеспечению, но в конце концов все они боролись с неудачами при производстве и ошибками в драйверах. В сравнении с этим, основанные на GPU решения, хоть и менее эффективны, но выигрывают за счет зрелой экосистемы, которую разработчики могут использовать сразу. Главная проблема, с которой сталкивается Fabric, не в том, чтобы доказать, что VPU быстрее, чем GPU, а в том, чтобы показать, что его простота использования может заставить разработчиков перейти.

Говоря об этом, нельзя не упомянуть о полной гомоморфной криптографии (FHE). Это еще одна технология, которая чрезмерно мифологизирована, но действительно обладает потенциалом к разрушению. Запуск FHE на CPU в настоящее время — это просто шутка, задержка может заставить вас ждать целую вечность. Если VPU Fabric действительно сможет, как говорится в белой книге, предоставить нативную поддержку операторов FHE, то он не просто ускоряет ZK, а открывает коммерческую ценность данных через аппаратные средства. Это как в случае с ИИ: до ускорения на GPU нейронные сети были лишь математической игрушкой в лаборатории. Прорывы в аппаратном обеспечении часто являются предварительным условием для взрывного роста применения.

Я тоже заметила, что на рынке существует определенное религиозное отторжение к так называемой «специальной архитектуре». Многие считают, что как только аппаратное обеспечение становится специализированным, это означает риск централизации. Если в мире всего несколько фабрик могут производить VPU, если только несколько пулов смогут позволить себе это оборудование, то разве децентрализация вычислительной мощности не станет пустым словом? Это разумный вопрос. Но если подумать, разве текущая вычислительная мощность GPU действительно децентрализована? Посмотрите на масштабы крупных майнинг-ферм. Настоящая децентрализация не должна отвергать специализированное разделение труда, а должна снижать барьеры для верификации. Как только верификация становится легковесной, доказательство, даже если оно централизовано, математически безопасно.

С точки зрения пользовательского опыта, если в будущем я, как разработчик, при развертывании ZK-приложений, не буду беспокоиться о том, использую ли я графическую карту Nvidia или процессор Intel, а просто буду вызывать API Fabric или использовать библиотеку, совместимую с набором команд VPU, тогда этот уровень абстракции аппаратного обеспечения можно считать успешным. Нынешняя проблема заключается в том, что мне нужно писать разный код CUDA или оптимизацию ассемблера для разных аппаратных средств, это слишком болезненно. Объединенный набор команд, обещанный Fabric, если он действительно существует, значительно освободит производительные силы.

Сравнивая с аналогичными конкурентами, некоторые проекты все еще колеблются по поводу оптимизации битового потока FPGA, некоторые надеются на простое наращивание ресурсов ASIC для достижения чудес. Подход Fabric, начинающий с уровня наборов команд, действительно выглядит более академически строгим и системным. Но это также очень опасно, потому что системность часто означает громоздкость и длительные циклы разработки. В индустрии криптовалют, где все меняется каждый день, время — это главный враг.

Я также размышляю, возможно, мы не должны рассматривать Fabric только как проект аппаратного обеспечения. На самом деле он определяет новую вычислительную парадигму. В будущем цифровом мире вычисления больше не будут просто вычислениями, а станут «проверяемыми вычислениями». Каждое вычисление будет сопровождаться математическим сертификатом прав. Чтобы реализовать эту мечту, нам нужны новые кремниевые чипы, новые инструкции, новая архитектура. Это звучит как научная фантастика, но посмотрите на современные большие модели ИИ — ни одна из них не построена без мощной вычислительной мощности. Будущее криптографии, безусловно, станет гонкой в вооружении вычислительных мощностей.

В этом процессе, независимо от споров о технических маршрутах или битвы за долю рынка, в конечном итоге выигрывает вся экосистема. Чем дешевле вычислительная мощность, тем дешевле приватность, тем шире доверие. То, что мы сейчас видим в виде трудностей и вызовов, всего лишь необходимый путь к тому будущему, где будет полная гомоморфная криптография и нулевые знания.

@Fabric Foundation $ROBO #ROBO