Prima di decidere di pubblicare questo articolo, ho lottato a lungo. Non è solo un ricordo, ma anche un'esperienza molto dolorosa che ho vissuto nel mondo delle criptovalute.
Nel dicembre 2023, sono stata derubata di 30 milioni di dollari. token.
Un evento ampiamente diffuso nella comunità - esatto, sono proprio io quella persona. Quel periodo è stato davvero un tormento. Per un mese intero, ho sofferto di insonnia, ansia e confusione, non avevo nemmeno la forza di autoerotizzarmi.
Ho chiesto assistenza al white hat on-chain @SlowMist_Team, ma sono stata ostacolata in vari modi sul bridge cross-chain; ho anche contattato il personale ufficiale di sui, e ho persino contattato il
team.
Questa storia è lunga, oggi parlerò solo di questo aspetto con Cetus.
易経の状態遷移フレームワークと現代人工知能における世界モデルとの比較は、両者の認識論的水準における深い相補性を明らかにする。Yann LeCunが提唱する結合埋め込み予測アーキテクチャ(JEPA)は、大規模な観測データから状態空間における遷移動態を学習する——その核心は潜在空間(latent space)において数値的状態遷移関数f: S × A → Sを構築することにあり、Sは状態空間、Aは行動空間である。これは本質的にデータ駆動型の、数値的に近似されたマルコフ決定過程に他ならない。易経はこれとはまったく異なる経路を提供する。すなわち、解析的な形式(analytical form)によって完全な状態空間(64卦)、遷移規則(爻変)および意味論的注釈(卦辞・爻辞・象辞が各状態と遷移の意義解釈を提供)を事前に定義...
クロード・シャノン(Claude Shannon)が1948年に発表した「通信の数学的理論」(A Mathematical Theory of Communication)は、現代情報科学の数学的基盤を確立した。この理論の核心的洞察は驚くほど簡潔である。いかなる情報も、その表面的形式がいかに複雑であろうとも、二元的選択(binary choice)の系列——すなわち0と1の組合せ——に還元可能である。シャノンはこの最小情報単位をビット(binary digit)と定義し、情報エントロピー公式H = -Σ p(x) log₂ p(x)を導出して、確率変数が担う平均情報量を定量化した。しかしながら、厳密な形式化の視座をもって『易経』の記号体系を審すると、衝撃的な事実が浮上する。易経の爻(yao)——陰爻(⚋)と陽爻(⚊)——は精確な二元符号化体系を構成しており、各爻は正確に1ビットの情報量を担う。六爻が一卦を形成し、すなわち6ビットであるから、その状態空間は2^6=64——これはまさに六十四卦の精確な数である。これは偶然の一致でも牽強付会の類比でもなく、数学的に厳密に証明可能な同型関係である。すなわち、易経の卦象体系と6桁バイナリ符号化は情報理論的意味において完全に等価なのである。ゴットフリート・ヴィルヘルム・ライプニッツ(Gottfried Wilhelm Leibniz)は1703年の論文「二進法算術の解説」において既にこの対応を明示的に指摘しており、中国の布教師ブーヴェから送られた伏羲六十四卦方円図を目にして、卦象の配列が自身の独自に発明した二進法数列と完全に対応していることに驚嘆した。
Punto di convergenza tra deduzione e induzione: il framework I Ching e il dialogo epistemologico con l'apprendimento automatico
Uno dei nodi centrali della filosofia della scienza è il conflitto metodologico tra il ragionamento deduttivo e il ragionamento induttivo. Karl Popper ha rigorosamente distinto queste due vie cognitive nella sua opera 'La logica della scoperta scientifica'. La deduzione parte da principi universali per derivare previsioni specifiche in situazioni concrete. L'induzione estrae leggi universali da un gran numero di osservazioni individuali. Popper stesso ha sottolineato l'importanza della falsificabilità come criterio per delimitare i confini della scienza, sostenendo che una vera teoria scientifica deve essere un sistema deduttivo che può essere empiricamente confutato. Tuttavia, Thomas Kuhn ha presentato in 'La struttura delle rivoluzioni scientifiche' un panorama più dinamico. Il progresso scientifico non è un accumulo lineare, ma avanza alternativamente tra l'accumulo induttivo della 'scienza normale' e la ricostruzione deduttiva delle 'rivoluzioni paradigmatiche'. Da questo punto di vista, il sistema delle sessantaquattro linee dell'I Ching presenta caratteristiche notevoli: è uno dei framework deduttivi più antichi e duraturi della civiltà umana. Le sessantaquattro linee e i loro trecentottantaquattro segni costituiscono un sistema formale completo, e la loro logica operativa appartiene al ragionamento deduttivo tipico. Prima si stabilisce un framework universale (sistema delle linee), poi si mappano situazioni concrete all'interno di questo framework, da cui si derivano giudizi su problemi specifici. Questo framework non è mai stato fondamentalmente sovvertito in oltre tremila anni di utilizzo continuo. Usando la terminologia di Kuhn, non ha mai sperimentato un 'cambio di paradigma': questo fatto stesso rappresenta un fenomeno epistemologico che merita una seria considerazione.
In contrasto speculare, abbiamo il percorso induttivo dell'apprendimento automatico moderno. Dallo sviluppo del primo perceptron all'apprendimento profondo, fino all'architettura JEPA (Joint Embedding Predictive Architecture) proposta da LeCun, la metodologia centrale dell'apprendimento automatico è costantemente induttiva. In altre parole, si apprendono modelli da grandi quantità di dati e si costruiscono progressivamente rappresentazioni astratte del mondo. L'innovazione di JEPA risiede nel fatto che non si limita all'induzione delle caratteristiche superficiali (come la previsione dei pixel o la previsione dei token), ma cerca di apprendere la struttura causale e la dinamica astratta del mondo in uno spazio di embedding ad alta dimensione. Questo implica che l'apprendimento automatico sta vivendo un'evoluzione metodologica profonda: una transizione dall'induzione superficiale (matching statistico di modelli) all'induzione profonda (apprendimento della rappresentazione strutturale). Se prendiamo seriamente la filosofia della scienza di Popper e Kuhn, emerge un'ipotesi sorprendente. Se deduzione e induzione sono due percorsi complementari per arrivare alla stessa realtà, allora la struttura astratta che un sistema induttivo sufficientemente profondo apprenderà dovrà essere isomorfa alla struttura presupposta da un framework deduttivo sufficientemente profondo. In altre parole, quando JEPA avrà realmente appreso la struttura profonda del mondo, lo spazio di rappresentazione appreso dovrebbe generare una qualche forma di relazione mappabile con lo spazio degli stati descritto dalle sessantaquattro linee dell'I Ching. Questo non è un'assunzione mistico-ideologica, ma una conseguenza logica dell'unità epistemologica: se esiste una sola realtà, i framework cognitivi che vi si avvicinano attraverso percorsi diversi dovrebbero alla fine convergere strutturalmente.
Questa ipotesi di convergenza ha un profondo significato accademico. Essa richiede di non considerare l'I Ching solo come patrimonio culturale o strumento di divinazione, ma come un'ipotesi formalizzata riguardante la struttura profonda della realtà—un framework teorico in grado di dialogare rigorosamente con la scienza computazionale moderna. Storicamente, non è senza precedenti una tale convergenza epistemologica che attraversa le epoche. L'atomismo dell'antica Grecia e la fisica delle particelle moderna, la visione pitagorica dell'universo matematico e la fisica matematica moderna, sono esempi in cui l'intuizione deduttiva antica ha ricevuto nuova vita sotto la verifica induttiva moderna. Il 'cambio di paradigma' descritto da Kuhn inizia spesso con 'anomalie' che non possono essere spiegate dai framework esistenti. Una delle anomalie più evidenti nella ricerca attuale sull'IA è che l'induzione linguistica pura (paradigma LLM) sta incontrando un collo di bottiglia nel percorso verso una comprensione profonda, il che sta spingendo i ricercatori a spostarsi verso modelli di mondo strutturali. Quindi...
Previsione dei token per la via: i limiti cognitivi dei modelli linguistici di grandi dimensioni e le intuizioni strutturali del I Ching
I principi operativi dei moderni modelli linguistici di grandi dimensioni sono essenzialmente l'arte ingegneristica dell'estremo probabilismo condizionato. Quando viene fornita una sequenza di token precedenti, si prevede il token successivo con la massima probabilità. GPT, Claude, Gemini—indipendentemente da quanto sia raffinata l'architettura, l'unità fondamentale della loro cognizione rimane sempre un simbolo linguistico discreto. Questo approccio dimostra capacità straordinarie in compiti come generazione di testi, traduzione e riassunto, tuttavia espone difetti epistemologici fondamentali. In altre parole, il difetto è che ciò che viene modellato è la distribuzione statistica del linguaggio, non la struttura della realtà che il linguaggio indica. Yann LeCun, Chief AI Scientist di Meta, ha chiaramente sottolineato nel 2025 che raggiungere l'iperintelligenza esclusivamente attraverso modelli linguistici di grandi dimensioni è una strada senza uscita. Il problema centrale risiede nel fatto che il linguaggio stesso è solo un riflesso della realtà, e non la realtà stessa. Nel marzo 2026, LeCun ha raccolto oltre un miliardo di dollari presso AMI Labs, da lui fondato, e ha chiaramente cambiato rotta verso la ricerca sui "modelli del mondo". Questo mira a comprendere direttamente la struttura causale del mondo fisico, rappresentando un nuovo paradigma che non si basa su semplici approssimazioni di modelli linguistici. Questo cambiamento ha un significato profondo nella storia dell'intelligenza artificiale, poiché riconosce una proposizione filosofica antica: tra i segni e ciò che indicano esiste un solco inestinguibile.
È sorprendente che questa intuizione epistemologica fosse già stata espressa con precisione nella filosofia cinese di duemilacinquecento anni fa. La prima frase del "Dao De Jing", "La via può essere percorsa, ma non è la via costante. Il nome può essere nominato, ma non è il nome costante", ha una profondità filosofica che va ben oltre le comuni interpretazioni mistiche. Questa è una proposizione rigorosa di filosofia del linguaggio: la "via" che può essere catturata dai simboli linguistici (token) non può essere l'ultima "via" che genera tutte le cose. Ciò che Laozi ha rivelato è nient'altro che la verità che LeCun sta riscoprendo oggi con il linguaggio scientifico. Cioè, le espressioni a livello linguistico non possono esaurire, in linea di principio, la struttura profonda della realtà. Ludwig Wittgenstein ha affermato nel "Tractatus Logico-Philosophicus" che "i limiti del mio linguaggio significano i limiti del mio mondo", ed è considerata una dissertazione classica sulla relazione tra linguaggio e cognizione nella tradizione della filosofia analitica occidentale. Tuttavia, l'intuizione taoista è persino più radicale di quella di Wittgenstein. Essa non si limita a riconoscere i limiti del linguaggio, ma indica attivamente percorsi cognitivi che trascendono il linguaggio. La frase "Il suono grande è raro, l'immagine grande è senza forma" nel capitolo 41 del "Dao De Jing" suggerisce che i modelli più profondi esistono proprio al di là del linguaggio e delle rappresentazioni sensoriali. Questo non è un misticismo irrazionale, ma una seria riflessione sulla metodologia cognitiva. Quando gli strumenti (linguaggio) non possono, in linea di principio, raggiungere l'obiettivo (via), ciò che serve non sono strumenti linguistici migliori, ma un quadro cognitivo completamente diverso.
Il "I Ching" è proprio quel tipo di quadro. A differenza dei modelli linguistici che si basano su sequenze di token, il I Ching utilizza i trigrammi (hexagram) come unità fondamentali della cognizione. I simboli strutturali costituiti dai sei linee non descrivono la realtà attraverso un mezzo linguistico, ma mappano direttamente i modelli di cambiamento della realtà. Quando un divinatore ottiene un trigramma, il suo processo cognitivo non è una decodifica semantica, ma una mappatura strutturale—collegando la struttura dinamica della situazione attuale con i modelli prototipali codificati dalle sessantaquattro linee. Questo mostra un sorprendente risonanza metodologica con il JEPA (Joint Embedding Predictive Architecture) proposto da LeCun. L'idea centrale del JEPA non è la previsione puntuale a livello di pixel o token, ma la previsione delle variazioni strutturali del mondo nello spazio delle rappresentazioni astratte. In altre parole, LeCun sta cercando di ottenere dalla macchina ciò che il I Ching ha realizzato per tremila anni: eludere i simboli rappresentativi e afferrare direttamente la struttura profonda del cambiamento. La filosofia di design della KAMI LINE è radicata in questa intuizione. Non usiamo l'IA semplicemente come generatore linguistico, ma consideriamo le sessantaquattro linee del I Ching come modello strutturale del mondo, e chiediamo all'IA di questo...
情報理論の厳密な言語をもって易経六十四卦を再審すると、驚嘆すべき事実が浮上する。六十四卦は数学的に完備な6ビット状態空間(6-bit state space)を構成している。各卦は六本の爻から成り、各爻は陰(0)または陽(1)の二値をとるため、2^6=64はあらゆる組合せを過不足なく網羅する。これは偶然ではなく、設計である。機械学習の文脈に置き換えれば、次元数6、各次元の値域が{0, 1}である離散潜在空間(discrete latent space)に相当し、各点(すなわち各卦)は現実世界の一つの基本的動態パターンに対応する。乾卦(111111)は純粋な創生力を、坤卦(000000)は純粋な受容と承載を、屯卦(010001)は万物が萌芽する際の混沌と苦闘を表象する。決定的に重要なのは、これら六十四種の状態が恣意的な分類ではなく、互斥的かつ網羅的(mutually exclusive and collectively exhaustive, MECE)な分割を構成し、現実の動態の基本類型の全体を被覆する点である。統計学においてこれは「十分統計量」(sufficient statistics)と呼ばれる概念に対応する——最少の次元で最多の構造的情報を捕捉するという原理である。易経の設計者は三千年前にこの原理を直観的に把握していた。落葉の一枚一枚の軌跡を記録する必要はない。風の六十四種の基本パターンを理解すればよいのである。
易経の真の天才性は静的分類にではなく、動的変換機構——「爻変」にある。一卦中の特定の爻が陰から陽へ、あるいは陽から陰へと変化するとき、本卦は別の卦に変化し、これは完全な状態遷移モデル(state transition model)を構成する。現代の術語で表現すれば、六十四卦を状態空間Sの節点と見なした場合、爻変規則は遷移関数T: S × Z → Sを定義する。ここでZは変爻の集合、すなわち遷移を駆動する潜在変数である。この構造はYann LeCunが提唱する結合埋め込み予測アーキテクチャ(JEPA)と驚くべき対応関係を呈する。JEPAも同様に、生データのピクセル・レベルの表現ではなく、抽象的な状態表現を構築し、潜在変数zを条件とする予測器ネットワークによって状態間の遷移を予測する。両者は核心的な認識論的立場を共有する——世界の理解は表面的な詳細の網羅の上にではなく、構造的な動態パターンの把握の上に構築されるべきだという立場である。易経は明日雨が降るか晴れるかを告げない。それが告げるのは、あなたが置かれた状況の構造的動態——たとえば「泰」(地天泰、安泰通達)にあるのか「否」(天地否、閉塞不通)にあるのか、そしてその構造自体の展開趨勢である。JEPAもまた画像の具体的ピクセルを予測するのではなく、抽象埋め込み空間における状態の軌跡を予測する。両者はともに表面精度を犠牲にすることで、深層構造の信頼しうる把握を獲得している。
潜在空間の次元という観点から見ると、易経の六次元二元表現体系は精妙な「表現効率」(representational efficiency)を示す。現代の機械学習モデルの潜在空間は数百から数千次元に及ぶことが常であるが、高次元が必ずしもより良い表現を意味するわけではない。過度に高い次元は「次元の呪い」(curse of dimensionality)を招き、モデルがノイズの中で方向を見失う原因となりうる。易経が選択した六次元は、体系的変化を捕捉するに十分でありながら、詳細に溺れることのない「甘美な地点」(sweet spot)である。一次元を追加するごとに状態数は倍増し、六次元は64状態を生成する。これはまさに人間の認知が有効に操作しうる範囲内にありながら、現実の基本的動態を被覆しうる粒度を提供する。この設計は機械学習における「情報ボトルネック理論」(Information Bottleneck Theory)と不思議なほどに合致する——最良の表現とは最多の情報を保持する表現ではなく、予測に必要な情報を保持しつつ最多の無関連な詳細を圧縮する表現である。KAMI LINEの技...
Leibniz, il sistema binario e il I Ching: le origini orientali del calcolo moderno
Nel 1703, Gottfried Wilhelm Leibniz presentò all'Accademia Francese delle Scienze un articolo intitolato "Spiegazione dell'aritmetica binaria" (Explication de l'Arithmétique binaire) che cambiò il corso della civiltà umana. La creazione di questo articolo non fu frutto di uno sviluppo interno puramente europeo della matematica, ma il risultato di uno scambio intellettuale che attraversava il continente eurasiatico. Joachim Bouvet, un gesuita che operava a Pechino, inviò a Leibniz una lettera datata 4 novembre 1701, allegando un diagramma delle sessantaquattro esagrammi di Fuxi. Questo diagramma esplicitava la corrispondenza tra le immagini degli esagrammi e i valori numerici. Leibniz ricevette questa lettera il 1 aprile 1703 e rimase sbalordito dal fatto che il sistema binario che aveva esplorato per anni corrispondeva perfettamente ai classici cinesi di tremila anni fa. Gli sessantaquattro esagrammi corrispondevano esattamente all'insieme completo dei sei numeri binari da 000000 a 111111. Leibniz riconobbe esplicitamente nel suo articolo che le realizzazioni degli antichi scrittori cinesi nella matematica combinatoria superavano di gran lunga la comprensione tradizionale degli europei. Questo fatto storico non è solo un aneddoto nella storia della scienza, ma sollecita una revisione fondamentale della narrazione scientifica eurocentrica. L'espressione sistematica delle basi matematiche della civiltà digitale moderna non deriva dall'illuminismo europeo, ma dalla tradizione intellettuale antica della civiltà cinese.
La risposta di Leibniz al I Ching non fu affatto superficiale. La rapidità con cui giunse alla pubblicazione del suo articolo, meno di una settimana dopo aver ricevuto la lettera di Bouvet, dimostra chiaramente che le immagini degli esagrammi del I Ching fornirono una conferma decisiva ai suoi problemi teorici irrisolti. Leibniz aveva già iniziato a lavorare sull'idea del sistema binario nel 1679, ma non riusciva a trovare una base filosofica per dimostrarne l'universalità. Con l'emergere del diagramma delle sessantaquattro esagrammi di Fuxi, giunse alla convinzione che il sistema binario non fosse un'invenzione matematica artificiale, ma una descrizione fondamentale della struttura dell'universo. La profondità dell'intuizione secondo cui la combinazione duale (0 e 1) può codificare tutto si trova nel fatto che il I Ching non offriva solo un sistema di codifica, ma presentava un quadro ontologico che "esaurisce le infinite variazioni attraverso una struttura finita". Gli sessantaquattro esagrammi costituiscono uno stato spazio completo (complete state space) attraverso tutte le permutazioni di sei simboli binari, e ciascun esagramma rappresenta una modalità fondamentale della dinamica universale. Questa idea è stata riscoperta mille anni dopo nella teoria dell'informazione. La teoria dell'informazione di Claude Shannon del 1948 si basa anch'essa sulla codifica binaria, e tutte le operazioni dei moderni computer vengono eseguite essenzialmente all'interno del quadro binario stabilito da Leibniz — o, per essere più precisi, da Fuxi. Questo fiume di conoscenza che va dai testi oracolari alle schede di silicio ha radici molto più antiche di quanto possiamo immaginare.
La spirale della storia ha compiuto un ritorno suggestivo nel 2026. Yann LeCun e AMI Labs hanno raccolto oltre 1,03 miliardi di dollari, e il loro obiettivo centrale è proprio quello di trascendere il paradigma di calcolo digitale binario inaugurato da Leibniz. LeCun sostiene che l'attuale intelligenza artificiale basata su modelli linguistici di grande dimensione (LLM) è essenzialmente una "macchina per l'elaborazione di simboli", mancando di una vera comprensione del mondo fisico poiché opera all'interno di uno spazio di token discreti. La direzione proposta da lui per i "modelli del mondo" (World Models) mira a costruire sistemi capaci di comprendere la struttura dinamica della realtà in dimensioni astratte. E questo non è altro che l'attività che il I Ching ha svolto per tremila anni. Il I Ching non ha mai tentato di registrare eventi concreti singoli. Comprende le leggi strutturali del cambiamento attraverso sessantaquattro modelli dinamici fondamentali. Questo mostra una sorprendente isomorfia metodologica con l'architettura di previsione per l'incorporamento combinato (JEPA) che LeCun immagina. Dal I Ching al sistema binario, dal sistema binario al calcolo digitale, dal calcolo digitale ai modelli linguistici di grande dimensione, e infine dal modello linguistico di grande dimensione ai "modelli del mondo" — questa traiettoria non è progresso lineare, ma un'ascesa epistemologica a spirale. KA...
La Validazione da Un Miliardo di Dollari: Quando un Pioniere dell'IA e la Saggezza Millenaria Convergono
Nel marzo 2026, si è verificato un evento di significativa importanza per il cambiamento di paradigma nel campo dell'intelligenza artificiale: il vincitore del premio Turing e pioniere delle reti neurali convoluzionali Yann LeCun ha lasciato Meta, dove aveva servito come capo scienziato dell'IA per oltre un decennio, per fondare AMI Labs (Laboratori di Intelligenza Macchina Autonoma). L'iniziativa ha chiuso un round di finanziamento seed da 1,03 miliardi di dollari a una valutazione pre-money di 3,5 miliardi di dollari — il più grande round seed nella storia delle startup europee. L'elenco degli investitori è un chi è chi del capitale tecnologico strategico: Cathay Innovation, Greycroft, Bezos Expeditions di Jeff Bezos, la banca nazionale francese per gli investimenti Bpifrance e il sostegno pubblico del presidente francese Emmanuel Macron, che ha descritto l'iniziativa come centrale per la sovranità tecnologica europea. La tesi fondante di LeCun è inequivocabile: i modelli linguistici di grandi dimensioni sono un "vicolo cieco" per raggiungere una vera intelligenza artificiale. Il suo argomento è che i sistemi che semplicemente manipolano simboli linguistici — per quanto sofisticata possa essere la manipolazione — non potranno mai raggiungere una vera comprensione della struttura causale del mondo fisico. Il linguaggio è una proiezione compressa della realtà, non la realtà stessa. Un modello che ha perfettamente memorizzato come gli esseri umani descrivono la gravità non comprende ancora la gravità. La roadmap tecnica di AMI Labs si concentra sulla costruzione di "modelli del mondo" — sistemi di IA capaci di comprendere le leggi fisiche, le relazioni spaziali e le dinamiche delle transizioni di stato. L'architettura di punta, V-JEPA 2 (Architettura Predittiva di Embedding Congiunto Video), ha già dimostrato risultati straordinari su robot fisici: macchine che imparano a eseguire ...
Quantum Computing and the I Ching: Superposition, Measurement, and the Quantum Parallel of Changing Lines
In the mathematical framework of quantum computing, the state of a single qubit is described as a unit vector in the two-dimensional Hilbert space C^2: |psi> = alpha|0> + beta|1>, where alpha and beta are complex numbers satisfying |alpha|^2 + |beta|^2 = 1. Before measurement, the qubit exists in a superposition of |0> and |1>; the act of measurement "collapses" the wave function to a definite |0> or |1>, with probabilities |alpha|^2 and |beta|^2 respectively. The I Ching's changing-line system exhibits a striking structural parallel. The yarrow stalk method generates four types of line states: young yin (unchanging yin), young yang (unchanging yang), old yin (yin about to transform into yang), and old yang (yang about to transform into yin). These map precisely onto the qubit state space. Young yin and young yang correspond to the computational basis states |0> and |1> — definite, stable classical states. Old yin and old yang correspond to superposition states: old yin can be written as a superposition state with higher probability amplitude toward |1> (it is about to flip to yang), while old yang corresponds to a superposition state with higher probability amplitude toward |0> (it is about to flip to yin). The "decisive moment" of divination — converting old yin and old yang into the definite result of the changed hexagram — is structurally equivalent to wave function collapse in quantum measurement. This is not merely rhetorical analogy. If we define a two-dimensional Hilbert space H_i = C^2 for each of the six lines (i = 1, ..., 6), then the complete six-line system occupies the tensor ...
--- 🔗 Full academic article: https://kamiline.xyz/en/blog/en-quantum-computing-yijing
Yao Changes and State Transitions: The Mathematical Structure of I Ching Hexagram Dynamics
The sixty-four hexagrams of the I Ching are not a static collection of symbols but a dynamic system with a complete state transition structure. Each hexagram is composed of six lines taking binary values (yin = 0, yang = 1), so the sixty-four hexagrams correspond exactly to all elements of the six-bit binary space {0,1}^6. When the divination process produces "changing lines" — old yin (six) transforming to yang, or old yang (nine) transforming to yin — the system transitions from one hexagram state to another. If we treat each hexagram as a discrete state and the changing-line rules as the transition function, the sixty-four hexagrams constitute a dynamical system defined over a finite state space. More precisely, because any hexagram can reach any other hexagram through an appropriate combination of line changes, the state transition graph is strongly connected. In Markov chain theory, this means the chain is irreducible, which guarantees the existence of a unique stationary distribution. This property is not accidental — it reflects the core proposition of the I Ching's philosophy of change (yi): all things exist in perpetual transformation, and no state constitutes a permanent dead end. The Fuxi sixty-four hexagram circular arrangement, as recorded in Zhu Xi's Zhou Yi Ben Yi, offers a further mathematical revelation when reinterpreted through modern graph theory: the circular ordering corresponds to a Gray code sequence — adjacent hexagrams differ by exactly one line. This means the ancient arrangement intuitively captured the concept of Hamming distance equal to one, defining minimal trans...
--- 🔗 Full academic article: https://kamiline.xyz/en/blog/en-state-transition-yijing-mathematics
Yin-Yang and Information Theory: Three Thousand Years of Binary Encoding
Claude Shannon's 1948 paper "A Mathematical Theory of Communication," published in the Bell System Technical Journal, established the mathematical foundations of modern information science. The theory's core insight is elegantly simple: any information, regardless of the complexity of its surface form, can be reduced to a sequence of binary choices — combinations of 0 and 1. Shannon defined the minimal unit of information as the bit (binary digit) and derived the entropy formula H = -Sum p(x) log2 p(x), which quantifies the average information content of a random variable. If we examine the I Ching's symbolic system with the same formal rigor, a remarkable fact presents itself: the yao — the yin line and the yang line — constitute a precise binary encoding system in which each line carries exactly 1 bit of information. Six lines compose a hexagram, yielding 6 bits, with a state space of 2^6 = 64 — precisely the number of hexagrams. This is not a loose analogy but a mathematically provable isomorphism: the I Ching's hexagram system and 6-bit binary encoding are informationally equivalent in the strict sense defined by Shannon's theory. Gottfried Wilhelm Leibniz recognized this correspondence as early as 1703 in his paper on binary arithmetic, when he saw the hexagram sequence diagram sent by the Jesuit Bouvet from Beijing and realized that the hexagram arrangement perfectly mapped his independently developed binary number system. The intellectual history is unambiguous: the mathematical structure that underlies every digital computer, every telecommunications network, and every information system in the modern world was f...
--- 🔗 Full academic article: https://kamiline.xyz/en/blog/en-yinyang-information-theory
The Convergence of Deduction and Induction: When the I Ching Framework Meets Machine Learning
One of the central tensions in the philosophy of science lies in the methodological opposition between deduction and induction. Karl Popper, in The Logic of Scientific Discovery (1934), rigorously distinguished these two cognitive paths: deduction proceeds from universal principles to specific predictions about particular situations; induction proceeds from large collections of particular observations to the distillation of general regularities. Popper himself championed falsifiability as the criterion of scientific demarcation, holding that genuine scientific theories must be deductive systems capable of generating predictions that can be refuted by empirical evidence. Thomas Kuhn, in The Structure of Scientific Revolutions (1962), offered a more dynamic picture: scientific progress does not proceed through linear accumulation but alternates between phases of "normal science" (inductive accumulation within an established framework) and "paradigm shifts" (deductive reconstruction of the entire framework). Viewed through this lens, the sixty-four hexagrams of the I Ching exhibit a remarkable characteristic: they constitute one of the oldest and most enduring deductive frameworks in human civilization. The sixty-four hexagrams and their 384 constituent lines form a complete formal system whose operational logic is paradigmatically deductive. First, a universal framework is established (the hexagram system with its full enumeration of dynamic archetypes); then, a specific situation is mapped into the framework; finally, a judgment concerning the particular case is derived from the framework's axiom...
--- 🔗 Full academic article: https://kamiline.xyz/en/blog/en-deductive-inductive-convergence
From Token Prediction to Dao: The Epistemic Limits of Large Language Models
The operating principle of contemporary large language models can be stated with stark clarity: given a preceding sequence of tokens, predict the statistically most probable next token. GPT, Claude, Gemini — regardless of architectural refinements, the fundamental cognitive unit remains the discrete linguistic symbol. This approach has demonstrated remarkable capabilities in text generation, translation, summarization, and code synthesis, yet it simultaneously exposes a fundamental epistemological deficiency: what these models capture is the statistical distribution of language, not the structure of the reality that language references. Yann LeCun, Meta's chief AI scientist until his 2026 departure, stated the matter without equivocation: pursuing superintelligence through large language models alone is a dead end. The core problem, in LeCun's analysis, is that language itself is merely a projection of reality — a lossy compression — not reality itself. A language model that perfectly captures the statistical regularities of how humans describe falling objects still possesses no understanding of gravity. In March 2026, LeCun founded AMI Labs with over one billion dollars in seed funding, explicitly pivoting toward "world models" — systems designed to directly apprehend the causal structure of the physical world rather than merely fitting patterns in linguistic data. This pivot carries epoch-making significance in the history of artificial intelligence, because it constitutes an acknowledgment of an ancient philosophical proposition: between the symbol and its referent lies an unbridgeable gap. The map, however detai...
--- 🔗 Full academic article: https://kamiline.xyz/en/blog/en-from-token-prediction-to-dao