Binance Square

Powerpei

image
Overený tvorca
内容创作 项目分析 深耕 AI版权和IP版权。X:@PWenzhen76938 没有任何小号,请勿上当!
Otvorený obchod
Držiteľ BNB
Držiteľ BNB
Častý obchodník
Počet rokov: 2.7
1.2K+ Sledované
41.3K+ Sledovatelia
33.3K+ Páči sa mi
4.7K+ Zdieľané
Príspevky
Portfólio
·
--
Cb、Circle这帮一百多家巨头 正大摇大摆地按着美国参议院的头 催他们赶紧把那 CLARITY法案给过了 而且连白宫都在亲自下场 帮着调解稳定币利息到底怎么算合法 你仔细品品这背后的水有多深 我们在这边怕出金被按头 华尔街那帮人已经在用国家立法的形式 把稳定币硬生生做成全球支付的新轨道 他们根本没把稳定币当成咱们炒土狗的筹码 这就是美国在借着科技公司的手发“赛博美元” 直接越过传统银行去抢占全球的支付底座。 这其实把2026年的底牌已经亮出来了 不管香港那边的Web3枢纽政策给得多好 全球资金的底层规矩全是华盛顿那几张桌子上定的 只要这个法案一落地,带着合规利息的加密美元瞬间就能扫平所有的跨境障碍 以后你手里捏着的U,购买力和流通性绝对比存在银行里的法币还要硬。 我默默把那个教人出金的群消息免打扰了 也别折腾什么安全出金攻略了,只要生活还过得去 老老实实把钱留在链上吃利息 就当给自己存点随时能走遍全球的硬通货,比什么都强
Cb、Circle这帮一百多家巨头

正大摇大摆地按着美国参议院的头

催他们赶紧把那 CLARITY法案给过了

而且连白宫都在亲自下场

帮着调解稳定币利息到底怎么算合法

你仔细品品这背后的水有多深

我们在这边怕出金被按头

华尔街那帮人已经在用国家立法的形式

把稳定币硬生生做成全球支付的新轨道

他们根本没把稳定币当成咱们炒土狗的筹码

这就是美国在借着科技公司的手发“赛博美元”

直接越过传统银行去抢占全球的支付底座。

这其实把2026年的底牌已经亮出来了

不管香港那边的Web3枢纽政策给得多好

全球资金的底层规矩全是华盛顿那几张桌子上定的

只要这个法案一落地,带着合规利息的加密美元瞬间就能扫平所有的跨境障碍

以后你手里捏着的U,购买力和流通性绝对比存在银行里的法币还要硬。

我默默把那个教人出金的群消息免打扰了

也别折腾什么安全出金攻略了,只要生活还过得去

老老实实把钱留在链上吃利息

就当给自己存点随时能走遍全球的硬通货,比什么都强
Článok
香港新股市场观察:4月空窗期后,5月会迎来爆发吗?今天翻了翻最新的港股IPO数据,突然有种恍然大悟的感觉 原来今年前几个月市场这么火爆,我之前竟然没注意到全貌。 数据显示,2026 年前三个月,香港市场一口气上了40家新公司,募资总额达到1099亿港元。 说实话,这个成绩放在最近几年来看,真的算是相当亮眼了。我记得去年同期远没有这么热闹,今年这个势头确实让人眼前一亮。 现在正处于“空窗期” 不过话说回来,最近这段时间市场突然安静了下来。商米科技和适威生物的认购刚结束,后面暂时没有新项目跟上。 我每天习惯性打开交易所网站看公告,结果连续好几天都没什么新动静。 这种感觉就像追剧追到季终,突然要等下一季更新一样,有点不太适应。 但这种平静应该只是暂时的。 交易所“弹药库”里藏着什么? 我特意去翻了翻港交所的待审名单,不看不知道,一看吓一跳 现在排队等着上市的公司居然有300多家!这个数字意味着什么?意味着接下来几个月,尤其是5月份,很可能会迎来一波集中上市潮 有机构预测,2026年全年可能会有150到200家公司在香港上市,募资总额预计在3000到3500亿港元之间 如果这个预测靠谱的话,那今年的港股IPO市场真的会非常精彩。 --- 我仔细研究了一下这些排队的公司,发现了几个很有意思的趋势: 硬科技公司占了大头 做人工智能的、搞半导体的、研发机器人的,这类公司在名单里随处可见。这跟现在全球科技发展的大方向是吻合的,毕竟这些都是当下最热门的赛道 生物医药公司也不少 这个领域一直是港股IPO的常客,今年看起来热度依然不减 来源越来越多元化了 以前主要是内地企业来港上市,现在我发现东南亚、中东的公司也开始盯上香港这个市场了。 甚至有些原本在内地上市的公司,也打算来香港做第二上市。这种多元化的趋势,我觉得对市场活力是件好事。 /// 买新股这事儿,我最看重的就是背后有没有大机构站台 这次在名单里,我看到了淡马锡、贝莱德、阿里巴巴这些响当当的名字 这些国际顶级机构愿意真金白银地投进来,至少说明他们看好这些公司的前景。 虽然大机构也不是百分百不会看走眼,但总比完全没有机构背书要靠谱得多。 还有一点让我挺意外的,就是很多新股的入场门槛并不高。 一手的价格大概在2000到8000港元之间,对于我们这些普通散户来说,还是能够承受的。 不像有些股票,一手就要好几万,那就真的只能看看了 >我的一些操作习惯(纯个人经验,非投资建议) 必须说在前面: 我接下来分享的只是我个人的一些操作习惯和想法,绝对不构成任何投资建议。金融市场风险很大,每个人的情况都不一样,大家一定要根据自己的实际情况做决策,盈亏自负。 趁着现在是空窗期,我也在复盘自己之前的操作。这段时间我养成了几个习惯: →每天看公告已经成了日常。 早上起来第一件事,就是打开港交所网站刷一遍,看看有没有新的招股消息。 →只买基石投资占比高的。我给自己定了个标准:基石投资者认购比例必须超过 20%,否则坚决不碰。我的逻辑很简单 如果那些专业机构都不愿意大笔投钱,我一个散户凭什么比他们更有信心? →严格控制单只新股的投入比例 虽然今年很多新股上市首日表现不错,但我从来不敢把所有鸡蛋放在一个篮子里 每只新股的投入金额,我都控制在总资金的10%到20% 之间。万一看走眼了,至少不会伤筋动骨。 →时刻关注认购热度 超额认购倍数是个很重要的参考指标。如果认购太火爆,中签率就会很低;如果认购冷清,又可能说明市场不看好。这个度需要自己去把握。 →现金为王,不加杠杆。我以前也动过借钱打新的念头,但后来想想还是算了。用自己的闲钱操作,心态会平和很多,也不会因为还款压力做出冲动的决策。 偶尔会用家人朋友的账户 这个主要是为了提高中签概率,毕竟多几个账户申购,总比单打独斗机会大一些 当然,前提是他们也同意参与,并且清楚知道风险。 ➤现在该做什么? 现在是 4 月底,正好处于新股空窗期。我没有闲着,而是在做这几件事: 准备资金 把手头的闲钱整理一下,确保 5 月份有项目出来的时候,能够随时出手。 熟悉操作流程 虽然打过很多次新股了,但每次还是会在手机 APP上模拟操作一遍,确保到时候不会因为操作失误错过机会。 研究待上市公司 利用这段空档期,把那些排队的公司资料好好看一看,提前做做功课,心里有个底。 至于5月份的新股到底能不能涨,说实话我也不知道 市场这东西,谁也说不准。但有一点我很确定:机会只留给有准备的人。 2026年的港股IPO市场看起来会很热闹,我想做的,就是稳稳当当地抓住属于自己的那一份机会。不求一夜暴富,但求步步为营。 --- 风险提示:本文仅为个人经验分享,不构成任何投资建议。股市有风险,投资需谨慎。

香港新股市场观察:4月空窗期后,5月会迎来爆发吗?

今天翻了翻最新的港股IPO数据,突然有种恍然大悟的感觉
原来今年前几个月市场这么火爆,我之前竟然没注意到全貌。

数据显示,2026 年前三个月,香港市场一口气上了40家新公司,募资总额达到1099亿港元。
说实话,这个成绩放在最近几年来看,真的算是相当亮眼了。我记得去年同期远没有这么热闹,今年这个势头确实让人眼前一亮。

现在正处于“空窗期”

不过话说回来,最近这段时间市场突然安静了下来。商米科技和适威生物的认购刚结束,后面暂时没有新项目跟上。

我每天习惯性打开交易所网站看公告,结果连续好几天都没什么新动静。

这种感觉就像追剧追到季终,突然要等下一季更新一样,有点不太适应。
但这种平静应该只是暂时的。

交易所“弹药库”里藏着什么?

我特意去翻了翻港交所的待审名单,不看不知道,一看吓一跳

现在排队等着上市的公司居然有300多家!这个数字意味着什么?意味着接下来几个月,尤其是5月份,很可能会迎来一波集中上市潮

有机构预测,2026年全年可能会有150到200家公司在香港上市,募资总额预计在3000到3500亿港元之间

如果这个预测靠谱的话,那今年的港股IPO市场真的会非常精彩。

---

我仔细研究了一下这些排队的公司,发现了几个很有意思的趋势:

硬科技公司占了大头

做人工智能的、搞半导体的、研发机器人的,这类公司在名单里随处可见。这跟现在全球科技发展的大方向是吻合的,毕竟这些都是当下最热门的赛道

生物医药公司也不少

这个领域一直是港股IPO的常客,今年看起来热度依然不减

来源越来越多元化了

以前主要是内地企业来港上市,现在我发现东南亚、中东的公司也开始盯上香港这个市场了。

甚至有些原本在内地上市的公司,也打算来香港做第二上市。这种多元化的趋势,我觉得对市场活力是件好事。

///

买新股这事儿,我最看重的就是背后有没有大机构站台

这次在名单里,我看到了淡马锡、贝莱德、阿里巴巴这些响当当的名字

这些国际顶级机构愿意真金白银地投进来,至少说明他们看好这些公司的前景。

虽然大机构也不是百分百不会看走眼,但总比完全没有机构背书要靠谱得多。

还有一点让我挺意外的,就是很多新股的入场门槛并不高。

一手的价格大概在2000到8000港元之间,对于我们这些普通散户来说,还是能够承受的。

不像有些股票,一手就要好几万,那就真的只能看看了

>我的一些操作习惯(纯个人经验,非投资建议)

必须说在前面: 我接下来分享的只是我个人的一些操作习惯和想法,绝对不构成任何投资建议。金融市场风险很大,每个人的情况都不一样,大家一定要根据自己的实际情况做决策,盈亏自负。

趁着现在是空窗期,我也在复盘自己之前的操作。这段时间我养成了几个习惯:

→每天看公告已经成了日常。 早上起来第一件事,就是打开港交所网站刷一遍,看看有没有新的招股消息。

→只买基石投资占比高的。我给自己定了个标准:基石投资者认购比例必须超过 20%,否则坚决不碰。我的逻辑很简单

如果那些专业机构都不愿意大笔投钱,我一个散户凭什么比他们更有信心?

→严格控制单只新股的投入比例 虽然今年很多新股上市首日表现不错,但我从来不敢把所有鸡蛋放在一个篮子里

每只新股的投入金额,我都控制在总资金的10%到20% 之间。万一看走眼了,至少不会伤筋动骨。

→时刻关注认购热度 超额认购倍数是个很重要的参考指标。如果认购太火爆,中签率就会很低;如果认购冷清,又可能说明市场不看好。这个度需要自己去把握。

→现金为王,不加杠杆。我以前也动过借钱打新的念头,但后来想想还是算了。用自己的闲钱操作,心态会平和很多,也不会因为还款压力做出冲动的决策。

偶尔会用家人朋友的账户

这个主要是为了提高中签概率,毕竟多几个账户申购,总比单打独斗机会大一些

当然,前提是他们也同意参与,并且清楚知道风险。

➤现在该做什么?

现在是 4 月底,正好处于新股空窗期。我没有闲着,而是在做这几件事:

准备资金 把手头的闲钱整理一下,确保 5 月份有项目出来的时候,能够随时出手。

熟悉操作流程 虽然打过很多次新股了,但每次还是会在手机 APP上模拟操作一遍,确保到时候不会因为操作失误错过机会。

研究待上市公司 利用这段空档期,把那些排队的公司资料好好看一看,提前做做功课,心里有个底。

至于5月份的新股到底能不能涨,说实话我也不知道

市场这东西,谁也说不准。但有一点我很确定:机会只留给有准备的人。

2026年的港股IPO市场看起来会很热闹,我想做的,就是稳稳当当地抓住属于自己的那一份机会。不求一夜暴富,但求步步为营。
---
风险提示:本文仅为个人经验分享,不构成任何投资建议。股市有风险,投资需谨慎。
Článok
2026美股超级抽血泵:四万亿独角兽排队,散户怎么玩?这几天我一直在盯2026 年美股的IPO排队名单 彭博和CNBC的数据交叉看下来,我越看越觉得,今年的流动性要面临一场大考。 这不是几个明星公司上市那么简单。这是AI和太空基建赛道,准备联手来股市里抽走超过4万亿美元的流动性。 我把这5个即将下场的"超级巨兽"盘了一下。说说我自己的看法。 ➤SpaceX:史诗级巨无霸,但散户能接得住吗? 第一个不用说,肯定是最吸金的SpaceX。 目前传出来的估值是1.75万亿美元,而且有传闻最快6月就要秘密提交申请了。 说实话,这家公司已经不是在讲故事了。Starlink 的现金流加上 Starship的商业化,他们光这次上市就打算抽走 500 到750 亿美元的真金白银。 我感觉这绝对是史诗级的巨无霸。但散户刚开盘去接?很可能会被这庞大的市值压得喘不过气。 ➤OpenAI:1万亿的盘子,是肥肉还是套现局? 再看OpenAI,这也是个硬茬。 他们目标是要冲刺 1万亿估值,Q4全力推进。 作为直接开启生成式AI 时代的母公司,市场情绪绝对是拉满的。 但我自己有点担忧。目前大模型的烧钱速度太夸张了,1 万亿的盘子上市后,到底能给二级市场留出多少炒作空间? 我不太确定这是块大肥肉,还是机构的套现离场局。 ➤Anthropic:开发者的选择,巨头的输血 相比之下,我反而觉得后面几家做底层底座的 B 端公司更值得看。 比如Anthropic,最新估值大概3800亿 大家都盯着ChatGPT,但其实开发者圈子里用Claude 的人越来越多。加上他们跟微软和亚马逊绑得极深,主打一个AI安全。 这种有明确巨头输血的底层网络,可能走得比纯做ToC 消费级模型的更稳。 ➤Databricks:企业数据底盘,震荡市最抗跌 还有做企业数据湖仓的Databricks。 估值1340亿左右,今年上半年可能就会上。 这公司平时散户不太关心,但在企业级数据基础设施里,它是绝对的龙头。 这种靠帮大公司管理数据底盘来抽水的逻辑,在震荡市里其实最抗跌。 ➤Stripe:老面孔终于要来了 最后是个老面孔Stripe 这全球支付巨头拖了这么多年,估值1200到1600亿左右,今年终于要在年内上了。 另外我还扫到了一眼Revolut和SHEIN,也在七八百亿的体量徘徊。 我的看法:流动性会被瞬间抽干 把这几家看完,我最大的感慨就是: 2026年绝对会重塑整个美股科技板块的格局。 但问题也来了。 当市场上同时存在SpaceX和OpenAI 这种"吸金黑洞"时,大资金肯定会疯狂调仓去打新。那现有的那些中小盘科技股,流动性很可能被瞬间抽干。 我自己的策略是:先稳住手里的现金,等这波超级IPO落锤、高波动挤完泡沫之后,再去捡那些被错杀的基建龙头。 这几个巨无霸,你们今年最想把钱砸给谁? (纯个人盘后笔记,高增长伴随高风险,DYOR,管好仓位。)

2026美股超级抽血泵:四万亿独角兽排队,散户怎么玩?

这几天我一直在盯2026 年美股的IPO排队名单

彭博和CNBC的数据交叉看下来,我越看越觉得,今年的流动性要面临一场大考。

这不是几个明星公司上市那么简单。这是AI和太空基建赛道,准备联手来股市里抽走超过4万亿美元的流动性。

我把这5个即将下场的"超级巨兽"盘了一下。说说我自己的看法。

➤SpaceX:史诗级巨无霸,但散户能接得住吗?
第一个不用说,肯定是最吸金的SpaceX。

目前传出来的估值是1.75万亿美元,而且有传闻最快6月就要秘密提交申请了。

说实话,这家公司已经不是在讲故事了。Starlink 的现金流加上 Starship的商业化,他们光这次上市就打算抽走 500 到750 亿美元的真金白银。

我感觉这绝对是史诗级的巨无霸。但散户刚开盘去接?很可能会被这庞大的市值压得喘不过气。

➤OpenAI:1万亿的盘子,是肥肉还是套现局?
再看OpenAI,这也是个硬茬。

他们目标是要冲刺 1万亿估值,Q4全力推进。

作为直接开启生成式AI 时代的母公司,市场情绪绝对是拉满的。

但我自己有点担忧。目前大模型的烧钱速度太夸张了,1 万亿的盘子上市后,到底能给二级市场留出多少炒作空间?

我不太确定这是块大肥肉,还是机构的套现离场局。

➤Anthropic:开发者的选择,巨头的输血
相比之下,我反而觉得后面几家做底层底座的 B 端公司更值得看。

比如Anthropic,最新估值大概3800亿

大家都盯着ChatGPT,但其实开发者圈子里用Claude 的人越来越多。加上他们跟微软和亚马逊绑得极深,主打一个AI安全。

这种有明确巨头输血的底层网络,可能走得比纯做ToC 消费级模型的更稳。

➤Databricks:企业数据底盘,震荡市最抗跌
还有做企业数据湖仓的Databricks。

估值1340亿左右,今年上半年可能就会上。

这公司平时散户不太关心,但在企业级数据基础设施里,它是绝对的龙头。

这种靠帮大公司管理数据底盘来抽水的逻辑,在震荡市里其实最抗跌。

➤Stripe:老面孔终于要来了
最后是个老面孔Stripe

这全球支付巨头拖了这么多年,估值1200到1600亿左右,今年终于要在年内上了。

另外我还扫到了一眼Revolut和SHEIN,也在七八百亿的体量徘徊。

我的看法:流动性会被瞬间抽干
把这几家看完,我最大的感慨就是:

2026年绝对会重塑整个美股科技板块的格局。

但问题也来了。

当市场上同时存在SpaceX和OpenAI 这种"吸金黑洞"时,大资金肯定会疯狂调仓去打新。那现有的那些中小盘科技股,流动性很可能被瞬间抽干。

我自己的策略是:先稳住手里的现金,等这波超级IPO落锤、高波动挤完泡沫之后,再去捡那些被错杀的基建龙头。

这几个巨无霸,你们今年最想把钱砸给谁?

(纯个人盘后笔记,高增长伴随高风险,DYOR,管好仓位。)
Kelp DAO被黑了2.93亿美金 走的还是LayerZero那个跨链桥,疑似是朝鲜黑客干的 群里那些平时天天发表情包的老哥,现在全在发语音骂娘 流通盘瞬间蒸发快20%,这可是今年最大的惨案了 每次看到这种新闻,再抬头看看4S店墙上标着“工时费 200 元”的牌子,我就觉得这个世界分裂得极其荒谬 现实里赚两百块钱要拧半天螺丝,链上几行代码漏洞就能让几亿美金灰飞烟灭。 这帮搞技术的,平时天天在会上吹嘘什么“全链互操作性”、什么“DeFi 乐高” 现在好了,乐高塌了 跨链桥这玩意儿就是个死穴 它相当于把几栋独立的高楼用导火索连了起来 只要 Kelp这栋楼一着火,隔壁的 Aave瞬间就被恐慌盘挤兑 利用率直接拉满到100% 连坏账危机都搞出来了。吓得Spark那边赶紧拔网线冻结资产保命 这就是他们吹的金融创新 顺风的时候大家一起套娃赚钱,逆风的时候大家连环踩踏。 瓜是吃不完了 我现在甚至连车都不想等了,只想赶紧打个车回家 把还在那几个多链协议里吃苍蝇腿利息的散碎U全提回冷钱包 这年头,利息谁爱赚谁赚,别连本金都被这帮草台班子给扬了。
Kelp DAO被黑了2.93亿美金

走的还是LayerZero那个跨链桥,疑似是朝鲜黑客干的

群里那些平时天天发表情包的老哥,现在全在发语音骂娘

流通盘瞬间蒸发快20%,这可是今年最大的惨案了

每次看到这种新闻,再抬头看看4S店墙上标着“工时费 200 元”的牌子,我就觉得这个世界分裂得极其荒谬

现实里赚两百块钱要拧半天螺丝,链上几行代码漏洞就能让几亿美金灰飞烟灭。

这帮搞技术的,平时天天在会上吹嘘什么“全链互操作性”、什么“DeFi 乐高”

现在好了,乐高塌了

跨链桥这玩意儿就是个死穴

它相当于把几栋独立的高楼用导火索连了起来

只要 Kelp这栋楼一着火,隔壁的 Aave瞬间就被恐慌盘挤兑

利用率直接拉满到100%

连坏账危机都搞出来了。吓得Spark那边赶紧拔网线冻结资产保命

这就是他们吹的金融创新

顺风的时候大家一起套娃赚钱,逆风的时候大家连环踩踏。

瓜是吃不完了

我现在甚至连车都不想等了,只想赶紧打个车回家

把还在那几个多链协议里吃苍蝇腿利息的散碎U全提回冷钱包

这年头,利息谁爱赚谁赚,别连本金都被这帮草台班子给扬了。
多军麻了 哈哈哈 势头看着还行 继续
多军麻了

哈哈哈

势头看着还行 继续
Powerpei
·
--
我看广场好多人再说这个 $CHIP 很猛啊

我也跟风进去试试

最近懈怠了

多到0.098看看
{spot}(CHIPUSDT)
我看广场好多人再说这个 $CHIP 很猛啊 我也跟风进去试试 最近懈怠了 多到0.098看看 {spot}(CHIPUSDT)
我看广场好多人再说这个 $CHIP 很猛啊

我也跟风进去试试

最近懈怠了

多到0.098看看
刚才扫了眼盘面,看到XRP突然拉了快30% 说实话,这老古董平时基本跟死水一样 但我切去看了下链上数据 发现价格居然硬生生穿透了Realized Value(实现价值) 看币安那边的吃单量 这绝对不是散户能搞出来的动静 估计真有机构大资金进场了 我不太确定这算不算2026开年的大戏 但这种恐龙币突然诈尸,我还是有点怂,不敢轻易追高 你们今天有人吃到这波老树开花了吗? (我自己就看看,不构成投资建议,DYOR。)
刚才扫了眼盘面,看到XRP突然拉了快30%

说实话,这老古董平时基本跟死水一样

但我切去看了下链上数据

发现价格居然硬生生穿透了Realized Value(实现价值)

看币安那边的吃单量

这绝对不是散户能搞出来的动静

估计真有机构大资金进场了

我不太确定这算不算2026开年的大戏

但这种恐龙币突然诈尸,我还是有点怂,不敢轻易追高

你们今天有人吃到这波老树开花了吗?
(我自己就看看,不构成投资建议,DYOR。)
Ethena USDe 缩水这事儿 最近在网上被大家嘲笑得挺狠的 都以为这种稳定币叙事终于要崩盘了 但我今天看到他们正式转向美股和黄金资产的新闻 还特意深度绑定了AI 赛道,我突然回过味儿来了 这根本不是什么走投无路的自救 聪明钱早就开始往下一个牌桌转移了 说实话,我之前对DeAI的理解 还停留在Bittensor炒作算力概念的阶段 觉得这玩意离我们散户挺远的 但现在这帮技术极客的落地速度快得有点离谱 你看那个刚落地的ERC-8211标准,直接把AI Agent 嵌进钱包里了 以前是我们自己捏着私钥,熬夜去链上冲土狗、防钓鱼 现在身份验证和隐私计算全交给了底层基建,连点鼠标、盯盘的活儿 都要被自动化的AI代理接管了 其实仔细想想挺后怕的 当未来的链上生态全是这些不知疲倦的机器人 在高频跑策略的时候 接下来的资金博弈 完全就是机器和机器之间的PVP 我们这些还在靠手动划K线图的人 连给人家当燃料的资格可能都没有 我不太确定2026年会不会真的是下一个超级周期的拐点 但反正我是默默把关注点从那些古典DeFi项目上挪开了 至少得先搞明白这些AI代理到底是怎么运行的 你们现在有去跑过那些内嵌AI的智能钱包吗?体验到底咋样? (纯个人对近期新闻的瞎琢磨,非投资建议。新概念坑多,DYOR。)
Ethena USDe 缩水这事儿

最近在网上被大家嘲笑得挺狠的

都以为这种稳定币叙事终于要崩盘了

但我今天看到他们正式转向美股和黄金资产的新闻

还特意深度绑定了AI 赛道,我突然回过味儿来了

这根本不是什么走投无路的自救

聪明钱早就开始往下一个牌桌转移了

说实话,我之前对DeAI的理解

还停留在Bittensor炒作算力概念的阶段

觉得这玩意离我们散户挺远的

但现在这帮技术极客的落地速度快得有点离谱

你看那个刚落地的ERC-8211标准,直接把AI Agent 嵌进钱包里了

以前是我们自己捏着私钥,熬夜去链上冲土狗、防钓鱼

现在身份验证和隐私计算全交给了底层基建,连点鼠标、盯盘的活儿

都要被自动化的AI代理接管了

其实仔细想想挺后怕的

当未来的链上生态全是这些不知疲倦的机器人

在高频跑策略的时候

接下来的资金博弈

完全就是机器和机器之间的PVP

我们这些还在靠手动划K线图的人

连给人家当燃料的资格可能都没有

我不太确定2026年会不会真的是下一个超级周期的拐点

但反正我是默默把关注点从那些古典DeFi项目上挪开了

至少得先搞明白这些AI代理到底是怎么运行的

你们现在有去跑过那些内嵌AI的智能钱包吗?体验到底咋样?
(纯个人对近期新闻的瞎琢磨,非投资建议。新概念坑多,DYOR。)
早上起来翻看群里聊天记录 看到有人发了个荣耀机器人跑半马的视频 我本来以为又是那种剪辑过的摆拍噱头,结果盯着看愣了好一会儿 这铁疙瘩直接跑出了50分 26 秒 把人类半马纪录给干翻了 最离谱的是,中间它摔了一跤,居然自己爬起来接着冲了 说实话,看着它那个动作,我突然觉得有点后怕 之前大家天天在网上吹各种AI视频工具 什么接 Sora 2、Kling 3搞一站式生成 我也跟着凑热闹跑过几个工作流 我们总以为AI也就是在电脑里当个高级打字员 或者帮我们捏个4k视频 结果现在呢,它不光长出了腿 连手机里的那种液冷散热技术,都已经直接装进它的关节里了 顺着这事儿,我又去翻了翻最新的行业报告 我发现现在圈里最焦虑的 根本不是大模型够不够聪明 而是电不够用了 AI数据中心的耗电量简直在爆炸 以至于现在的真风口,硬生生变成了“电力网+AI基础设施” 我不知道你们怎么看 我不太确定这些人形机器人 到底什么时候能量产塞进工厂或者家庭 反正2026年这画风转得太快了 AI已经从“会陪聊”彻底变成了“会跑步的耗电巨兽” 比起天天去研究怎么用各种提示词把AI视频调得更逼真 我其实现在更想去看看,底层那些搞能源和算力的基建项目 你们现在还在死磕 AI 视频工作流吗?还是也开始盯着物理世界了?
早上起来翻看群里聊天记录

看到有人发了个荣耀机器人跑半马的视频

我本来以为又是那种剪辑过的摆拍噱头,结果盯着看愣了好一会儿

这铁疙瘩直接跑出了50分 26 秒

把人类半马纪录给干翻了

最离谱的是,中间它摔了一跤,居然自己爬起来接着冲了

说实话,看着它那个动作,我突然觉得有点后怕

之前大家天天在网上吹各种AI视频工具

什么接 Sora 2、Kling 3搞一站式生成

我也跟着凑热闹跑过几个工作流

我们总以为AI也就是在电脑里当个高级打字员

或者帮我们捏个4k视频

结果现在呢,它不光长出了腿

连手机里的那种液冷散热技术,都已经直接装进它的关节里了

顺着这事儿,我又去翻了翻最新的行业报告

我发现现在圈里最焦虑的

根本不是大模型够不够聪明

而是电不够用了

AI数据中心的耗电量简直在爆炸

以至于现在的真风口,硬生生变成了“电力网+AI基础设施”

我不知道你们怎么看

我不太确定这些人形机器人 到底什么时候能量产塞进工厂或者家庭

反正2026年这画风转得太快了

AI已经从“会陪聊”彻底变成了“会跑步的耗电巨兽”

比起天天去研究怎么用各种提示词把AI视频调得更逼真

我其实现在更想去看看,底层那些搞能源和算力的基建项目

你们现在还在死磕 AI 视频工作流吗?还是也开始盯着物理世界了?
昨天跟一个在大厂做AI的朋友吵了一架 他觉得加密圈搞 DeAI全是在给发币找借口 但我今天仔细看了港中文商学院的一份内部研究 我突然发现他可能想错了一件事 大家平时总觉得Web3搞AI 是要造个去中心化的ChatGPT 其实根本不是。区块链现在更像是在给AI当“测谎仪” 你们用大模型肯定遇到过它一本正经胡说八道吧? 我之前一直觉得这玩意儿用在金融上太要命了 但现在的玩法是,直接用零知识证明去校验AI的输出 只要它上了链,它就没法凭空编造(幻觉) 还有算力垄断的事 现在跑大模型实在太贵了 但我最近看好几个算力网络,直接把散户的闲置显卡拼起来跑推理,这成本比去买云服务低太多了 说实话,我不太确定这帮草根去中心化网络最后能不能干翻那几个科技巨头 毕竟人家的资金壁垒太高了 但至少现在,链上已经开始有一堆AI Agent自己在执行交易了 比起手动盯盘两头挨打,我其实更愿意相信这种机器代理自己博弈的未来 只是我不知道,你们现在真敢把钱包直接授权给链上的AI吗? (新赛道早期肯定一堆坑,非投资建议。我自己也只敢拿点小钱跑测试。)
昨天跟一个在大厂做AI的朋友吵了一架

他觉得加密圈搞 DeAI全是在给发币找借口

但我今天仔细看了港中文商学院的一份内部研究

我突然发现他可能想错了一件事

大家平时总觉得Web3搞AI

是要造个去中心化的ChatGPT

其实根本不是。区块链现在更像是在给AI当“测谎仪”

你们用大模型肯定遇到过它一本正经胡说八道吧?

我之前一直觉得这玩意儿用在金融上太要命了

但现在的玩法是,直接用零知识证明去校验AI的输出

只要它上了链,它就没法凭空编造(幻觉)

还有算力垄断的事

现在跑大模型实在太贵了

但我最近看好几个算力网络,直接把散户的闲置显卡拼起来跑推理,这成本比去买云服务低太多了

说实话,我不太确定这帮草根去中心化网络最后能不能干翻那几个科技巨头

毕竟人家的资金壁垒太高了

但至少现在,链上已经开始有一堆AI Agent自己在执行交易了

比起手动盯盘两头挨打,我其实更愿意相信这种机器代理自己博弈的未来

只是我不知道,你们现在真敢把钱包直接授权给链上的AI吗?
(新赛道早期肯定一堆坑,非投资建议。我自己也只敢拿点小钱跑测试。)
今天早上翻到了WLFI最新的治理提案 说实话,我的第一反应是:这帮人是不是被现在恶劣的大环境逼急了?  因为他们这次提出来的锁仓方案,有点反常规 —— 我盘了一下核心数据 他们准备把622亿枚代币重新上锁 里面最关键的是针对团队和机构的452亿枚筹码 ➢方案很粗暴:如果你同意新条款,直接加上2年悬崖锁仓(Cliff)和3年线性释放 代价是,你必须强制烧掉手里10%的币 按上限算,最多要烧掉45.2亿枚WLFI 按上限算,最多要烧掉 45.2 亿枚 WLFI 有意思的是,早期支持者的筹码(170亿)虽然也锁2 年,但不用销毁,全额保留 以前我们见过的剧本,基本都是团队偷偷留后门,散户死扛 这次刚好反过来,团队直接拿自己开刀了 —— 看起来姿态确实摆得很足 但我一直觉得,单靠锁仓和销毁是撑不起基本面的 这最多算一种防守动作 所以我去交叉验证了一下他们最近的生态数据 那个USD1稳定币,现在的市值大概在42亿美元左右 Chainlink的储备证明(PoR)接了 OCC银行牌照申请也在走流程 ➢把这两件事连起来看,他们的逻辑其实就说得通了: 前面靠 USD1 去外面抢真实业务的流动性 后面靠 WLFI 的重度锁仓,强行压住后院的抛压预期 / 不过老实说,纸面上的锁仓是一回事 市场买不买账是另一回事 在现在这种流动性枯竭的阶段 大家看过的漂亮提案太多了 团队主动割肉,确实是个罕见的“自救+对齐”信号 但这招能不能换来真实的买盘,我还是持保留态度 反正我自己是觉得,这个动作可以作为评估老项目能不能穿越牛熊的一个及格线 至于要不要进场,还得再盯几个月他们在多链生态上的真实交易量 (注:纯个人链上数据拆解,非投资建议。行情难做,管好手,DYOR)
今天早上翻到了WLFI最新的治理提案

说实话,我的第一反应是:这帮人是不是被现在恶劣的大环境逼急了? 

因为他们这次提出来的锁仓方案,有点反常规

——

我盘了一下核心数据

他们准备把622亿枚代币重新上锁

里面最关键的是针对团队和机构的452亿枚筹码

➢方案很粗暴:如果你同意新条款,直接加上2年悬崖锁仓(Cliff)和3年线性释放

代价是,你必须强制烧掉手里10%的币

按上限算,最多要烧掉45.2亿枚WLFI
按上限算,最多要烧掉 45.2 亿枚 WLFI

有意思的是,早期支持者的筹码(170亿)虽然也锁2 年,但不用销毁,全额保留

以前我们见过的剧本,基本都是团队偷偷留后门,散户死扛

这次刚好反过来,团队直接拿自己开刀了

——

看起来姿态确实摆得很足

但我一直觉得,单靠锁仓和销毁是撑不起基本面的

这最多算一种防守动作

所以我去交叉验证了一下他们最近的生态数据

那个USD1稳定币,现在的市值大概在42亿美元左右

Chainlink的储备证明(PoR)接了

OCC银行牌照申请也在走流程

➢把这两件事连起来看,他们的逻辑其实就说得通了:

前面靠 USD1 去外面抢真实业务的流动性

后面靠 WLFI 的重度锁仓,强行压住后院的抛压预期

/

不过老实说,纸面上的锁仓是一回事

市场买不买账是另一回事

在现在这种流动性枯竭的阶段

大家看过的漂亮提案太多了

团队主动割肉,确实是个罕见的“自救+对齐”信号

但这招能不能换来真实的买盘,我还是持保留态度

反正我自己是觉得,这个动作可以作为评估老项目能不能穿越牛熊的一个及格线

至于要不要进场,还得再盯几个月他们在多链生态上的真实交易量

(注:纯个人链上数据拆解,非投资建议。行情难做,管好手,DYOR)
早上群里好几个老OG全炸锅了 Kelp DAO被黑了快3亿美金 但我盯着链上另一组数据 越看越觉得后怕 Kelp DAO这次是被利用了LayerZero跨链漏洞 黑客直接凭空印了11万多枚没背书的rsETH 说实话,项目单点被黑在圈子里真不算新鲜事 但我真正害怕的是这次的连锁反应 我去看了下大借贷协议的数据 Aave直接被吓出了提款潮,一天净流出62亿美元 TVL一下就蒸发了23% Morpho那边也跑了7个多亿 大家都在闭着眼睛往外撤资 我之前一直觉得再质押加上跨链是个好生意,资金利用率确实高 诶,但我现在真的不太确定了 这完全就是在火药桶上搭乐高啊 只要最底下有个协议出bug,整个DeFi的流动性都要被连坐 我不知道2026年会怎样,是不是真像老外说的是DeFi最惨的一年 反正我是赶紧把复杂套娃里的钱先撤了一部分出来,只留了点小资金在里面 你们今天跟着大部队提币了吗? (我自己的原则是:DeFi套娃风险不可控,看不懂底层的尽量别梭哈,留住本金最重要。)
早上群里好几个老OG全炸锅了

Kelp DAO被黑了快3亿美金

但我盯着链上另一组数据

越看越觉得后怕

Kelp DAO这次是被利用了LayerZero跨链漏洞

黑客直接凭空印了11万多枚没背书的rsETH

说实话,项目单点被黑在圈子里真不算新鲜事

但我真正害怕的是这次的连锁反应

我去看了下大借贷协议的数据

Aave直接被吓出了提款潮,一天净流出62亿美元

TVL一下就蒸发了23%

Morpho那边也跑了7个多亿

大家都在闭着眼睛往外撤资

我之前一直觉得再质押加上跨链是个好生意,资金利用率确实高

诶,但我现在真的不太确定了

这完全就是在火药桶上搭乐高啊

只要最底下有个协议出bug,整个DeFi的流动性都要被连坐

我不知道2026年会怎样,是不是真像老外说的是DeFi最惨的一年

反正我是赶紧把复杂套娃里的钱先撤了一部分出来,只留了点小资金在里面

你们今天跟着大部队提币了吗?
(我自己的原则是:DeFi套娃风险不可控,看不懂底层的尽量别梭哈,留住本金最重要。)
刚刚看到一个观点,挺有意思的 "AI中心化风险越来越明显:数据老化、决策不透明、单点故障" 这话听起来有点危言耸听,但仔细想想,确实是这么回事 现在的 AI 都是大厂控制的 你问ChatGPT问题,它给你答案 但你根本不知道它是怎么算的,数据从哪来的 有没有被动过手脚 更要命的是,这些数据会老化,模型会偏见,但你没法验证 区块链能解决这个问题吗? 至少有人在试 Bittensor(TAO)这个项目,正在通过去中心化的方式训练AI 不是一家公司控制所有算力,而是把训练任务分散到全球的节点上 Render则专注去中心化GPU算力 这就相当于,AI不再是某个公司的"黑盒" 而是变成了一个公开、透明、可验证的系统 结合Ant的Anvita和香港的稳定币监管框架 2026年可能是 AI + 区块链从"实验"转向"规模商用"的一年 但地缘风险和监管节奏,你得关注 你持有AI相关币吗?准备好迎接这一轮变革了吗? DYOR,非投资建议
刚刚看到一个观点,挺有意思的

"AI中心化风险越来越明显:数据老化、决策不透明、单点故障"

这话听起来有点危言耸听,但仔细想想,确实是这么回事

现在的 AI 都是大厂控制的

你问ChatGPT问题,它给你答案

但你根本不知道它是怎么算的,数据从哪来的

有没有被动过手脚

更要命的是,这些数据会老化,模型会偏见,但你没法验证

区块链能解决这个问题吗?

至少有人在试

Bittensor(TAO)这个项目,正在通过去中心化的方式训练AI

不是一家公司控制所有算力,而是把训练任务分散到全球的节点上

Render则专注去中心化GPU算力

这就相当于,AI不再是某个公司的"黑盒"

而是变成了一个公开、透明、可验证的系统

结合Ant的Anvita和香港的稳定币监管框架

2026年可能是 AI + 区块链从"实验"转向"规模商用"的一年

但地缘风险和监管节奏,你得关注

你持有AI相关币吗?准备好迎接这一轮变革了吗?

DYOR,非投资建议
最近盯了几天Perps DEX 发现一个挺有意思的现象 大部分项目都在卷低手续费、高杠杆、零滑点这些老生常谈的东西 但 @StandX_Official 的玩法不太一样,他们直接把推荐网络可视化了 来谈谈我的看法: 你去Points页面点开"My Network" 能直接看到你拉了多少人 这些人又拉了多少人,整个网络结构一目了然 配上"Stand together"的slogan 这波社群运营,有点东西 但我更关注的是他们的 Mainnet Campaign(Genesis Advantage)。 早期用户不光能拿到即时的DUSD真实 yield 还能积累协议的长期潜力 这就不是"撸一波就跑"的空投玩法了 而是在赌协议能不能起来 我看了一下实时数据(4月17日): ➢DUSD TVL:1 亿美元 ➢Holders:235,241 持有者 :235,241 ➢24H Perps Vol:4.37 亿美元 ➢OI:1.45 亿美元 ➢DUSD yield:2.52% 这个数据说实话,不算特别炸裂 但关键是,他们的增长曲线还算稳 我之前见过太多项目,TVL一周暴涨10倍,然后两周归零 StandX这种慢慢爬的,反而让我觉得更真实一点 当然,这不是无脑推荐 DeFi里增长容易,留存难 这个闭环设计有意思,但能不能真的把用户留住 还得看主网早期的社区粘性和资本效率 我自己的策略是:小额测试,观察数据,别梭哈 DYOR,小额测试,理性参与,仅作参考,不作任何投资建议!!
最近盯了几天Perps DEX

发现一个挺有意思的现象

大部分项目都在卷低手续费、高杠杆、零滑点这些老生常谈的东西

但 @StandX_Official 的玩法不太一样,他们直接把推荐网络可视化了

来谈谈我的看法:

你去Points页面点开"My Network"

能直接看到你拉了多少人

这些人又拉了多少人,整个网络结构一目了然

配上"Stand together"的slogan

这波社群运营,有点东西

但我更关注的是他们的 Mainnet Campaign(Genesis Advantage)。

早期用户不光能拿到即时的DUSD真实 yield

还能积累协议的长期潜力

这就不是"撸一波就跑"的空投玩法了

而是在赌协议能不能起来

我看了一下实时数据(4月17日):

➢DUSD TVL:1 亿美元
➢Holders:235,241 持有者 :235,241
➢24H Perps Vol:4.37 亿美元
➢OI:1.45 亿美元
➢DUSD yield:2.52%

这个数据说实话,不算特别炸裂

但关键是,他们的增长曲线还算稳

我之前见过太多项目,TVL一周暴涨10倍,然后两周归零

StandX这种慢慢爬的,反而让我觉得更真实一点

当然,这不是无脑推荐

DeFi里增长容易,留存难

这个闭环设计有意思,但能不能真的把用户留住

还得看主网早期的社区粘性和资本效率

我自己的策略是:小额测试,观察数据,别梭哈

DYOR,小额测试,理性参与,仅作参考,不作任何投资建议!!
Článok
Web3多链监控系统的底层实现——从EVM ABI解码到Solana异构解析14号我发了一篇推文,讲了我花一个半月做的Web3监控软件 那篇文章主要讲了系统的整体架构:进程隔离、I/O 模型、数据一致性、AI工程化、打包部署 很多人看完后私信我,问我一些更底层的问题: “ERC1155 的批量转账到底怎么解析?”“Solana 的交易结构那么复杂,你是怎么处理的?”“AI 返回的 JSON 经常格式错误,你是怎么兜底的?” 我发现上次那篇文章对这些核心实现细节讲得还不够深入。 所以我决定写这篇硬核拆解 --- 这篇文章的目标 这篇文章不是我用了什么技术栈的流水账。 我会从最底层的字节解析、数据结构反序列化、异构链的归一化处理、以及AI 工程化落地四个角度,拆解这套系统真正的技术骨架。 如果你对链上数据的原始形态没有概念,建议先补课再来 全文约 8000 字。你需要预留充足的阅读时间,如果你觉得有用就看到最后,没用请直接划走 --- 第一部分:EVM监控——从RPC字节流到结构化事件 EVM链的监控看起来很成熟。市面上有无数“监听某地址转账”的脚本 但是要做到零漏报、低延迟、高容错、可持久化,你需要直面以下几个地狱级难题 我会逐一拆解每个难题的底层实现。 --- ➢1 手动ABI解码:我为什么不用现成库? 市面上有 [web3.py]等成熟的库可以解析事件。但是我选择手写ABI解码 这不是为了炫技。这是基于两个非常现实的工程考量: 体积和依赖控制:[web3.py]及其依赖链会为打包后的EXE增加约15-20MB的体积 对于一个追求极致轻量的桌面软件,这是不可接受的代价。 降级控制力:我需要精确控制解码失败时的降级逻辑。如果你使用第三方库,一旦抛出异常,整个解析流程就会中断。但是手写解码可以让我在单个字段解析失败时,继续尝试提取其他可用信息。 核心的ERC20 Transfer事件解析逻辑如下: python 蟒 # 主题哈希——ERC20 Transfer 事件的 keccak256 签名 topic_transfer = "0xddf252ad1be2c89b69c2b068fc378daa952ba7f163c4a11628f55a4df523b3ef" if log["topics"][0] == topic_transfer: # 地址编码在 topic 中:前 12 字节是填充的 0,后 20 字节才是真实地址 sender = "0x" + log["topics"][1][-40:] # 从第 26 个字符开始截取 receiver = "0x" + log["topics"][2][-40:] # 数量编码在 data 字段中,是 uint256 类型,直接按 16 进制解析 raw_amount = int(log.get("data", "0x0"), 16) 这看起来很简单。但是真正的噩梦是ERC1155的TransferBatch事件 它是整个EVM监控模块中解析复杂度最高的部分。 --- ➢2 地狱级:ERC1155批量转账的ABI解码 ERC1155和ERC20/721的最大区别在于:它支持批量转账。 一笔交易可以同时转移多种不同ID的代币 每种代币的数量也可以不同。 这种灵活性在ABI编码层面表现为动态数组的嵌套。 TransferBatch事件的data字段结构如下(ABI编码规范): 解析这个结构需要手动管理所有偏移量 任何字节对齐错误都会导致完全错误的结果。 我的解析逻辑如下: python 蟒 # 去掉 0x 前缀,转换为字节数组 data = bytes.fromhex(log["data"][2:]) # 1. 读取两个数组的偏移量(各占 32 字节) ids_offset = int.from_bytes(data[0:32], 'big') # ids 数组起始位置 values_offset = int.from_bytes(data[32:64], 'big') # values 数组起始位置 # 2. 读取 ids 数组长度(在 ids_offset 位置,占 32 字节) ids_len = int.from_bytes(data[ids_offset:ids_offset+32], 'big') # 3. 逐个解析 ids(每个 id 是 uint256,占 32 字节) ids = [] for i in range(ids_len): start = ids_offset + 32 + i * 32 token_id = int.from_bytes(data[start:start+32], 'big') ids.append(token_id) # 4. 同理解析 values 数组 values_len = int.from_bytes(data[values_offset:values_offset+32], 'big') values = [] for i in range(values_len): start = values_offset + 32 + i * 32 value = int.from_bytes(data[start:start+32], 'big') values.append(value) # 5. 理论上 ids_len == values_len,但实际中可能存在不匹配的畸形交易 # 我的处理是:只处理较短的那个长度,保证不越界 process_len = min(ids_len, values_len) for i in range(process_len): # 对每一对 (token_id, value) 分别生成一条通知 await send_notification(token_id=ids[i], amount=values[i]) 这里有一个容易被忽略的细节: ABI编码中的偏移量是从data字段的起始位置(即0x后的第一个字节)开始计算的,而不是从整个log对象的起始位置。 很多初学者的解析错误都源于这个细节 此外,TransferBatch可能在一笔交易中包含数十个不同的NFT 如果我直接在主循环中逐个处理,会导致推送延迟和前端日志堆积。 我的优化是:把批量解析结果拆分为独立的通知,但是通过asyncio.gather并发推送。这样就把总耗时压缩到和单笔转账相近的水平。 --- ➢3 ERC1155的 TransferSingle:看起来简单,实际暗藏杀机 ERC1155还有另一个事件TransferSingle。它只转移单种代币,结构相对简单。 但是它有一个极易被忽略的坑:value字段的位置和TransferBatch不同。 TransferSingle的data编码为:token_id(32 字节)+ value(32 字节),紧凑排列,没有偏移量指针。 这要求我必须根据 topic[0] 的不同,走完全不同的解析分支。 很多监控脚本只处理TransferBatch而忽略了TransferSingle,导致漏报。 --- ➢4 代币元数据:eth_call的深坑和填坑指南 获取代币的符号(symbol)和精度(decimals)是推送可读信息的前提。 标准方法是调用代币合约的 symbol() 和 decimals() 函数。 但是现实世界中的代币合约千奇百怪: symbol() 返回 bytes32 而非 string:标准规定返回 string,但是早期很多代币(包括一些知名项目)返回的是固定 32 字节的 bytes32。你直接按字符串解码会得到一堆补零的乱码,例如 “USDC\x00\x00\x00\x00\x00……”。 decimals() 返回异常值:某些代币的精度是0,但是返回的是空数据 有些代币甚至没有实现这个函数。 我的处理逻辑是多级尝试: python 蟒 # 调用 symbol() result = await rpc_call({"to": token, "data": "0x95d89b41"}) if result and len(result) > 66: # 尝试按 bytes32 解析 data = result[130:] # 去掉函数签名和偏移量 symbol = bytes.fromhex(data).decode('utf-8').strip('\x00') # 如果解析出来的全是乱码,再尝试按 string 解析 if not symbol or not symbol.isprintable(): # 回退到 string 解码逻辑... 这类“边角料”问题,每一个都需要单独编写处理逻辑 它们单个看起来微不足道,但是累积起来占据了开发时间的30%以上 这也是区分“玩具脚本”和“生产级系统”的关键分水岭。 --- ➢5 WSS连接的高可用设计:节点池和指数退避 公共RPC/WSS节点的稳定性众所周知地差 我的系统为每条链配置了多个节点,并实现了一套完整的容灾逻辑: python 蟒 nodes = config["ETHEREUM_WSS_NODES"] # 至少配置 3 个 current_index = 0 retry_delay = 5 # 初始重试间隔 5 秒 while True: current_url = nodes[current_index] try: async with websockets.connect(current_url) as ws: # 订阅逻辑... retry_delay = 5 # 连接成功后重置 except Exception as e: # 切换到下一个节点(环形轮换) current_index = (current_index + 1) % len(nodes) # 指数退避,但上限 60 秒 await asyncio.sleep(retry_delay) retry_delay = min(retry_delay * 2, 60) 这套机制的关键在于: 节点池:至少配置3个来源不同的节点(官方、社区、付费),避免单点故障 指数退避:避免在节点恢复前对其造成重连风暴。 环形轮换:不会因为第一个节点永久故障而卡死。 --- ➢6 原生币的特殊处理:轮询补偿 如前所述,原生币没有事件日志。 我的方案是:每60秒调用 eth_getBalance,然后和内存快照对比: python 蟒 current = await rpc_call("eth_getBalance", [addr, "latest"]) if abs(current - last_balance[addr]) > 1e-18: # 考虑浮点误差 change = current - last_balance[addr] await send_notification( "收到原生币" if change > 0 else "转出原生币", amount=abs(change) ) last_balance[addr] = current 这里有一个细节:轮询间隔内可能发生多笔小额转账,余额变化只能体现净额。 对于大多数监控场景(关注大额异动),这已经足够。 如果未来需要更精确的追踪,可以结合newHeads订阅逐区块扫描。 --- 第二部分:Solana监控——在数据洪流中精准捕猎 Solana的监控难度和EVM完全不同 它的交易结构是异构指令集合,而且原生 RPC 能力极弱。 以下是我在 Solana 端踩过的坑和对应的解决方案。 --- ➢1 交易数据的“俄罗斯套娃”:多层级解析 一笔Solana交易经过Helius API增强后,可能同时包含以下数据层: nativeTransfers: SOL转账数组,每个元素包含 from、to、amount(lamports)。 tokenTransfers: SPL 代币转账数组,包含 from、to、mint、tokenAmount tokenTransfers: SPL 代币转账数组,包含 from、to、mint、tokenAmount events.nft: NFT 买卖事件,包含 seller、buyer、mint、price events.nft: NFT 买卖事件,包含 卖家、买家、铸品、价格 accountData:所有涉及账户的状态变更(包括 lamports 余额变化)。 我的解析流水线必须按优先级逐层剥开: python 蟒 # 第一优先级:原生 SOL 转账(最准确) if tx.get('nativeTransfers'): for transfer in tx['nativeTransfers']: if transfer['to'] in watch_addrs: await handle_sol_received(transfer) elif transfer['from'] in watch_addrs: await handle_sol_sent(transfer) # 第二优先级:SPL 代币转账 elif tx.get('tokenTransfers'): for transfer in tx['tokenTransfers']: # 需要额外调用 getAsset 获取代币符号和价格 ... # 第三优先级:NFT 事件 elif tx.get('events', {}).get('nft'): for nft_event in tx['events']['nft']: ... # 第四优先级:降级到余额变化反推(最后防线) elif tx.get('preBalances') and tx.get('postBalances'): await parse_balance_changes(tx) 这种多层级解析的核心思想是:优先使用最准确的数据源,逐级降级到次优方案 如果我直接用 `accountData` 反推,会遇到大量噪音(比如rent费用、账户初始化等非转账行为) 但是如果只依赖 `nativeTransfers`,又会漏掉某些复杂交易(比如DeFi合约内部的SOL转移) 所以我的策略是:用最准确的字段覆盖80%的场景,用降级逻辑兜底剩下的 20% 这种优先级设计的原因是:`nativeTransfers` 是 Helius直接解析好的结构化数据,最准确。余额变化反推是原始数据,误差最大,仅作兜底。 --- ➢2 降级兜底:余额变化反推算法的完整实现 当Helius返回的数据不包含 `nativeTransfers` 时(可能是API版本问题或该交易确实没有SOL转账),我需要用最原始的方法 比对 `preBalances` 和 `postBalances` 算法核心逻辑: python 蟒 def parse_balance_changes(tx): pre = tx['preBalances'] post = tx['postBalances'] accounts = tx['transaction']['message']['accountKeys'] changes = [] for i, (pre_bal, post_bal) in enumerate(zip(pre, post)): change = post_bal - pre_bal if change != 0: changes.append({ 'account': accounts[i], 'change_lamports': change, 'change_sol': change / 1e9 }) # 寻找与监控地址配对的对手方 for watch_addr in watch_addrs: watch_change = next((c for c in changes if c['account'] == watch_addr), None) if watch_change: # 寻找变化符号相反的账户作为对手方 counterparty = next( (c['account'] for c in changes if c['account'] != watch_addr and c['change_lamports'] * watch_change['change_lamports'] < 0), None ) yield watch_addr, watch_change, counterparty 这个算法的局限性在于: 当交易涉及多个账户同时转入转出时(如DEX聚合交易),对手方的推断可能不准确。 它无法区分SOL转账和合约交互中的lamports变化(如rent支付) 但是作为最后一道防线,它至少保证了不会漏掉大额转账。 在实际运行中,`nativeTransfers` 的覆盖率超过99%。余额反推仅在极少数边缘情况下被触发。 --- ➢3 SPL代币的元数据迷宫 Solana上的代币信息完全依赖Helius的 `getAsset` RPC 调用。 但是这个接口的返回数据并不总是完整: 某些新兴代币的 `symbol` 字段可能为空 `price_info`字段不是所有代币都有(需要Jupiter等聚合器提供喂价) 我的策略是多级降级: python 蟒 # 1. 调用 Helius getAsset asset = await helius_get_asset(mint) symbol = asset.get('content', {}).get('metadata', {}).get('symbol', 'UNKNOWN') # 2. 获取价格——优先使用 Helius 自带 price_info = asset.get('token_info', {}).get('price_info') if price_info: price = price_info.get('price_per_token', 0) else: # 3. 降级到 DexScreener API price = await get_dex_price(mint) DexScreener 的降级逻辑也很关键:它返回的是该代币在所有 DEX 上的交易对 我需要筛选出流动性最大的那个作为参考价格。 --- ➢4 滑动窗口去重的工程实现 Solana交易没有 `log_index` 概念 而且同一笔交易可能因Helius解析产生多条推送。 我的去重方案是一个有限容量的内存滑动窗口: python 蟒 processed_sigs = set() MAX_SIGS = 1000 def is_duplicate(sig): if sig in processed_sigs: return True processed_sigs.add(sig) # 超过容量时,截断保留最近 500 条 if len(processed_sigs) > MAX_SIGS: processed_sigs = set(list(processed_sigs)[-500:]) return False 这个方案在内存占用和去重准确性之间取得了平衡 有人可能会问:为什么不用Redis或SQLite做持久化去重? 因为对于实时监控系统,重启后重新处理少量重复是可接受的。没必要引入外部依赖。 --- ➢5 异步日志写入队列:避免 I/O 阻塞 Solana的详细交易日志需要写入JSON文件供前端查询 如果直接在解析协程中写文件,高并发下会导致I/O阻塞和文件损坏 我的方案是生产者-消费者队列: python 蟒 writequeue = asyncio.Queue() async def file_writer(): while True: path, data = await writequeue.get() # 读取已有数据 existing = [] if os.path.exists(path): with open(path, 'r') as f: existing = json.load(f) existing.append(data) # 保留最近 1000 条 if len(existing) > 1000: existing = existing[-1000:] with open(path, 'w') as f: json.dump(existing, f) # 在解析协程中 await writequeue.put((log_path, transaction_data)) 一个专门的协程负责所有文件 I/O,这彻底杜绝了并发写问题 --- 第三部分:AI解读——从“玩具”到“生产级”的工程鸿沟 调用AI API 是容易的 任何一个初学者都能在10分钟内写出调用OpenAI的代码 但是要让AI输出稳定、可解析、对用户有价值的内容,中间隔着巨大的工程鸿沟 以下是我在 AI 模块中的核心设计。 ➢1 多提供商特征调度 不同AI提供商的能力侧重点不同: DeepSeek:代码能力强,适合结构化输出,但是不支持联网 Moonshot:支持内置 `$web_search`,适合需要实时信息的项目解读 Gemma:Google 出品,作为备用兜底 我的调度器基于特征标志而非简单的轮询: python 蟒 class MultiAIClient: def init(self): self.providers = [ {'name': 'deepseek', 'features': {'transaction_insight': True, 'daily_report': True}}, {'name': 'moonshot', 'features': {'transaction_insight': True, 'web_search': True}}, {'name': 'gemma', 'features': {'transaction_insight': True}}, ] async def get_insight(self, prompt, required_feature=None): # 筛选出支持所需特征的提供商 candidates = [p for p in self.providers if (not required_feature or p['features'].get(required_feature))] for p in candidates: result = await self._call_provider(p, prompt) if result: return result, p['name'] return None, None 当用户在前端选择“联网搜索”时,系统自动跳过DeepSeek,优先调用 Moonshot 如果Moonshot超时,就降级到Gemma(此时联网功能丢失,但是至少能给出基础解读)。 --- ➢2 防御性JSON解析的三层护甲 大模型返回JSON的稳定性堪比“抽盲盒” 我设计了三层解析护甲,这确保了即使AI返回了“半成品垃圾”,前端依然能展示有效信息 第一层:标准JSON解析 python 蟒 try: return json.loads(response) except json.JSONDecodeError: pass 第二层:清洗Markdown代码块标记 这是最常见的污染形式——AI会把JSON包裹在 ```` ```json ... ``` ```` 中 python 蟒 cleaned = response.strip() if cleaned.startswith('json'): cleaned = cleaned[7:] if cleaned.endswith(''): cleaned = cleaned[:-3] cleaned = cleaned.strip() try: return json.loads(cleaned) except: pass 第三层:正则暴力提取 如果前两层都失败,说明 AI 返回的可能是纯文本或格式完全损坏的JSON。 此时我用正则直接提取关键字段: python 蟒 import re insight_match = re.search(r'"insight"\s*:\s*"([^"]*)"', response, re.DOTALL) risk_match = re.search(r'"risk"\s*:\s*"([^"]*)"', response) risk_reason_match = re.search(r'"risk_reason"\s*:\s*"([^"]*)"', response) return { "insight": insight_match.group(1) if insight_match else response[:200], "risk": risk_match.group(1) if risk_match else "未知", "risk_reason": risk_reason_match.group(1) if risk_reason_match else "" } 这三层护甲确保了:AI返回什么垃圾,前端都能展示出可读的内容,而不是白屏报错让用户一脸茫然。 --- ➢3 联网搜索的工具调用循环(Moonshot 专用) Moonshot的 `$web_search` 是一个内置工具。但是OpenAI SDK不会自动处理多轮工具调用 我需要手动实现循环: python 蟒 messages = [{"role": "user", "content": prompt}] tools = [{"type": "builtin_function", "function": {"name": "$web_search"}}] max_iterations = 3 for in range(maxiterations): response = await client.chat.completions.create( model="kimi-k2.5", messages=messages, tools=tools ) choice = response.choices[0] if choice.finish_reason == "tool_calls": # 将助手消息加入历史 messages.append(choice.message) # 为每个工具调用构造 tool 响应 for tool_call in choice.message.tool_calls: if tool_call.function.name == "$web_search": messages.append({ "role": "tool", "tool_call_id": tool_call.id, "name": tool_call.function.name, "content": "搜索已完成" # Moonshot 服务端已执行搜索,客户端只需回传确认 }) else: # 最终回复 return choice.message.content return "工具调用超过最大迭代次数" 这个循环的关键在于:服务端已经执行了搜索,客户端只需要按协议回传 `tool` 消息 很多开发者误以为需要在客户端执行搜索,导致实现复杂而且容易出错。 --- ➢4 提示词工程的防御性设计 AI解读的提示词不是我随意写的。它是经过多次迭代的“防御性设计”: plaintext 明文 请严格按照以下JSON格式返回,键名必须为英文: { "insight": "详细解读内容(可包含换行)", "risk": "低/中/高", "risk_reason": "风险原因描述", "suggestion": "操作建议(可选)" } 为什么要强调“键名必须为英文”和“只返回 JSON”? 因为AI在面对中文用户时,有时会“自作聪明”地用中文键名(如 `{“解读”: “。..”, “风险”: “高”}`),导致前端解析失败 明确约束后,成功率从约70%提升到95%以上 --- 四 结语:为什么我认为这套系统“很难复现”? 不是因为用了多么高深的算法——事实上,本文拆解的每一个技术点,单独拿出来都不算“黑科技”。 真正的难度在于: →异构链的适配成本:EVM和Solana 的底层差异巨大。你必须同时精通两套技术栈,市场上能同时驾驭两条链的开发者本就稀缺。 →边缘情况的处理密度:ERC1155的批量解析、Solana的降级反推、代币元数据的异常返回值、WSS 静默断线的检测……每一个“边角料”问题都需要单独编写处理逻辑。这些代码占据了整个项目60%以上的行数,但是在功能演示中完全看不见。 →AI 的工程化落地:把AI从“玩具”变成“可靠的生产力工具”,需要大量的防御性设计 多提供商容错、JSON多层解析、工具调用循环、提示词迭代 这些工作没有现成教程,全靠踩坑积累。 →系统的长期稳定性:节点切换、指数退避、异步队列、WAL 模式……这些运维层面的设计,是系统能7×24小时无人值守运行的基石。 如果你读完这篇文章觉得“信息量过大”或者“有些地方没完全看懂”,那我的目的就达到了。 真正的技术深度,从来不是让人一眼望穿的 它隐藏在那些你甚至没有意识到需要处理的问题里。 --- #新币监控 #土狗币监控 #多链监控软件 #EVM监控 #SOL监控 #web3哨兵 #web3桌面应用软件 #实时监控软件 #异构解析

Web3多链监控系统的底层实现——从EVM ABI解码到Solana异构解析

14号我发了一篇推文,讲了我花一个半月做的Web3监控软件
那篇文章主要讲了系统的整体架构:进程隔离、I/O 模型、数据一致性、AI工程化、打包部署
很多人看完后私信我,问我一些更底层的问题:
“ERC1155 的批量转账到底怎么解析?”“Solana 的交易结构那么复杂,你是怎么处理的?”“AI 返回的 JSON 经常格式错误,你是怎么兜底的?”
我发现上次那篇文章对这些核心实现细节讲得还不够深入。
所以我决定写这篇硬核拆解
---
这篇文章的目标
这篇文章不是我用了什么技术栈的流水账。
我会从最底层的字节解析、数据结构反序列化、异构链的归一化处理、以及AI 工程化落地四个角度,拆解这套系统真正的技术骨架。
如果你对链上数据的原始形态没有概念,建议先补课再来
全文约 8000 字。你需要预留充足的阅读时间,如果你觉得有用就看到最后,没用请直接划走
---
第一部分:EVM监控——从RPC字节流到结构化事件
EVM链的监控看起来很成熟。市面上有无数“监听某地址转账”的脚本
但是要做到零漏报、低延迟、高容错、可持久化,你需要直面以下几个地狱级难题
我会逐一拆解每个难题的底层实现。
---
➢1 手动ABI解码:我为什么不用现成库?
市面上有 [web3.py]等成熟的库可以解析事件。但是我选择手写ABI解码
这不是为了炫技。这是基于两个非常现实的工程考量:
体积和依赖控制:[web3.py]及其依赖链会为打包后的EXE增加约15-20MB的体积
对于一个追求极致轻量的桌面软件,这是不可接受的代价。
降级控制力:我需要精确控制解码失败时的降级逻辑。如果你使用第三方库,一旦抛出异常,整个解析流程就会中断。但是手写解码可以让我在单个字段解析失败时,继续尝试提取其他可用信息。
核心的ERC20 Transfer事件解析逻辑如下:
python

# 主题哈希——ERC20 Transfer 事件的 keccak256 签名
topic_transfer = "0xddf252ad1be2c89b69c2b068fc378daa952ba7f163c4a11628f55a4df523b3ef"

if log["topics"][0] == topic_transfer:
# 地址编码在 topic 中:前 12 字节是填充的 0,后 20 字节才是真实地址
sender = "0x" + log["topics"][1][-40:] # 从第 26 个字符开始截取
receiver = "0x" + log["topics"][2][-40:]

# 数量编码在 data 字段中,是 uint256 类型,直接按 16 进制解析
raw_amount = int(log.get("data", "0x0"), 16)
这看起来很简单。但是真正的噩梦是ERC1155的TransferBatch事件
它是整个EVM监控模块中解析复杂度最高的部分。
---
➢2 地狱级:ERC1155批量转账的ABI解码
ERC1155和ERC20/721的最大区别在于:它支持批量转账。
一笔交易可以同时转移多种不同ID的代币
每种代币的数量也可以不同。
这种灵活性在ABI编码层面表现为动态数组的嵌套。
TransferBatch事件的data字段结构如下(ABI编码规范):

解析这个结构需要手动管理所有偏移量
任何字节对齐错误都会导致完全错误的结果。
我的解析逻辑如下:
python

# 去掉 0x 前缀,转换为字节数组
data = bytes.fromhex(log["data"][2:])

# 1. 读取两个数组的偏移量(各占 32 字节)
ids_offset = int.from_bytes(data[0:32], 'big') # ids 数组起始位置
values_offset = int.from_bytes(data[32:64], 'big') # values 数组起始位置

# 2. 读取 ids 数组长度(在 ids_offset 位置,占 32 字节)
ids_len = int.from_bytes(data[ids_offset:ids_offset+32], 'big')

# 3. 逐个解析 ids(每个 id 是 uint256,占 32 字节)
ids = []
for i in range(ids_len):
start = ids_offset + 32 + i * 32
token_id = int.from_bytes(data[start:start+32], 'big')
ids.append(token_id)

# 4. 同理解析 values 数组
values_len = int.from_bytes(data[values_offset:values_offset+32], 'big')
values = []
for i in range(values_len):
start = values_offset + 32 + i * 32
value = int.from_bytes(data[start:start+32], 'big')
values.append(value)

# 5. 理论上 ids_len == values_len,但实际中可能存在不匹配的畸形交易
# 我的处理是:只处理较短的那个长度,保证不越界
process_len = min(ids_len, values_len)
for i in range(process_len):
# 对每一对 (token_id, value) 分别生成一条通知
await send_notification(token_id=ids[i], amount=values[i])
这里有一个容易被忽略的细节:
ABI编码中的偏移量是从data字段的起始位置(即0x后的第一个字节)开始计算的,而不是从整个log对象的起始位置。
很多初学者的解析错误都源于这个细节
此外,TransferBatch可能在一笔交易中包含数十个不同的NFT
如果我直接在主循环中逐个处理,会导致推送延迟和前端日志堆积。
我的优化是:把批量解析结果拆分为独立的通知,但是通过asyncio.gather并发推送。这样就把总耗时压缩到和单笔转账相近的水平。
---
➢3 ERC1155的 TransferSingle:看起来简单,实际暗藏杀机
ERC1155还有另一个事件TransferSingle。它只转移单种代币,结构相对简单。
但是它有一个极易被忽略的坑:value字段的位置和TransferBatch不同。
TransferSingle的data编码为:token_id(32 字节)+ value(32 字节),紧凑排列,没有偏移量指针。
这要求我必须根据 topic[0] 的不同,走完全不同的解析分支。
很多监控脚本只处理TransferBatch而忽略了TransferSingle,导致漏报。
---
➢4 代币元数据:eth_call的深坑和填坑指南
获取代币的符号(symbol)和精度(decimals)是推送可读信息的前提。
标准方法是调用代币合约的 symbol() 和 decimals() 函数。
但是现实世界中的代币合约千奇百怪:
symbol() 返回 bytes32 而非 string:标准规定返回 string,但是早期很多代币(包括一些知名项目)返回的是固定 32 字节的 bytes32。你直接按字符串解码会得到一堆补零的乱码,例如 “USDC\x00\x00\x00\x00\x00……”。
decimals() 返回异常值:某些代币的精度是0,但是返回的是空数据
有些代币甚至没有实现这个函数。
我的处理逻辑是多级尝试:
python

# 调用 symbol()
result = await rpc_call({"to": token, "data": "0x95d89b41"})
if result and len(result) > 66:
# 尝试按 bytes32 解析
data = result[130:] # 去掉函数签名和偏移量
symbol = bytes.fromhex(data).decode('utf-8').strip('\x00')

# 如果解析出来的全是乱码,再尝试按 string 解析
if not symbol or not symbol.isprintable():
# 回退到 string 解码逻辑...
这类“边角料”问题,每一个都需要单独编写处理逻辑
它们单个看起来微不足道,但是累积起来占据了开发时间的30%以上
这也是区分“玩具脚本”和“生产级系统”的关键分水岭。
---
➢5 WSS连接的高可用设计:节点池和指数退避
公共RPC/WSS节点的稳定性众所周知地差
我的系统为每条链配置了多个节点,并实现了一套完整的容灾逻辑:
python

nodes = config["ETHEREUM_WSS_NODES"] # 至少配置 3 个
current_index = 0
retry_delay = 5 # 初始重试间隔 5 秒

while True:
current_url = nodes[current_index]
try:
async with websockets.connect(current_url) as ws:
# 订阅逻辑...
retry_delay = 5 # 连接成功后重置
except Exception as e:
# 切换到下一个节点(环形轮换)
current_index = (current_index + 1) % len(nodes)

# 指数退避,但上限 60 秒
await asyncio.sleep(retry_delay)
retry_delay = min(retry_delay * 2, 60)
这套机制的关键在于:
节点池:至少配置3个来源不同的节点(官方、社区、付费),避免单点故障
指数退避:避免在节点恢复前对其造成重连风暴。
环形轮换:不会因为第一个节点永久故障而卡死。
---
➢6 原生币的特殊处理:轮询补偿
如前所述,原生币没有事件日志。
我的方案是:每60秒调用 eth_getBalance,然后和内存快照对比:
python

current = await rpc_call("eth_getBalance", [addr, "latest"])
if abs(current - last_balance[addr]) > 1e-18: # 考虑浮点误差
change = current - last_balance[addr]
await send_notification(
"收到原生币" if change > 0 else "转出原生币",
amount=abs(change)
)
last_balance[addr] = current
这里有一个细节:轮询间隔内可能发生多笔小额转账,余额变化只能体现净额。
对于大多数监控场景(关注大额异动),这已经足够。
如果未来需要更精确的追踪,可以结合newHeads订阅逐区块扫描。
---
第二部分:Solana监控——在数据洪流中精准捕猎
Solana的监控难度和EVM完全不同
它的交易结构是异构指令集合,而且原生 RPC 能力极弱。
以下是我在 Solana 端踩过的坑和对应的解决方案。
---
➢1 交易数据的“俄罗斯套娃”:多层级解析
一笔Solana交易经过Helius API增强后,可能同时包含以下数据层:
nativeTransfers: SOL转账数组,每个元素包含 from、to、amount(lamports)。
tokenTransfers: SPL 代币转账数组,包含 from、to、mint、tokenAmount
tokenTransfers: SPL 代币转账数组,包含 from、to、mint、tokenAmount
events.nft: NFT 买卖事件,包含 seller、buyer、mint、price
events.nft: NFT 买卖事件,包含 卖家、买家、铸品、价格
accountData:所有涉及账户的状态变更(包括 lamports 余额变化)。
我的解析流水线必须按优先级逐层剥开:
python

# 第一优先级:原生 SOL 转账(最准确)
if tx.get('nativeTransfers'):
for transfer in tx['nativeTransfers']:
if transfer['to'] in watch_addrs:
await handle_sol_received(transfer)
elif transfer['from'] in watch_addrs:
await handle_sol_sent(transfer)

# 第二优先级:SPL 代币转账
elif tx.get('tokenTransfers'):
for transfer in tx['tokenTransfers']:
# 需要额外调用 getAsset 获取代币符号和价格
...

# 第三优先级:NFT 事件
elif tx.get('events', {}).get('nft'):
for nft_event in tx['events']['nft']:
...

# 第四优先级:降级到余额变化反推(最后防线)
elif tx.get('preBalances') and tx.get('postBalances'):
await parse_balance_changes(tx)
这种多层级解析的核心思想是:优先使用最准确的数据源,逐级降级到次优方案
如果我直接用 `accountData` 反推,会遇到大量噪音(比如rent费用、账户初始化等非转账行为)
但是如果只依赖 `nativeTransfers`,又会漏掉某些复杂交易(比如DeFi合约内部的SOL转移)
所以我的策略是:用最准确的字段覆盖80%的场景,用降级逻辑兜底剩下的 20%
这种优先级设计的原因是:`nativeTransfers` 是 Helius直接解析好的结构化数据,最准确。余额变化反推是原始数据,误差最大,仅作兜底。
---
➢2 降级兜底:余额变化反推算法的完整实现
当Helius返回的数据不包含 `nativeTransfers` 时(可能是API版本问题或该交易确实没有SOL转账),我需要用最原始的方法
比对 `preBalances` 和 `postBalances`
算法核心逻辑:
python

def parse_balance_changes(tx):
pre = tx['preBalances']
post = tx['postBalances']
accounts = tx['transaction']['message']['accountKeys']

changes = []
for i, (pre_bal, post_bal) in enumerate(zip(pre, post)):
change = post_bal - pre_bal
if change != 0:
changes.append({
'account': accounts[i],
'change_lamports': change,
'change_sol': change / 1e9
})

# 寻找与监控地址配对的对手方
for watch_addr in watch_addrs:
watch_change = next((c for c in changes if c['account'] == watch_addr), None)
if watch_change:
# 寻找变化符号相反的账户作为对手方
counterparty = next(
(c['account'] for c in changes
if c['account'] != watch_addr and c['change_lamports'] * watch_change['change_lamports'] < 0),
None
)
yield watch_addr, watch_change, counterparty
这个算法的局限性在于:
当交易涉及多个账户同时转入转出时(如DEX聚合交易),对手方的推断可能不准确。
它无法区分SOL转账和合约交互中的lamports变化(如rent支付)
但是作为最后一道防线,它至少保证了不会漏掉大额转账。
在实际运行中,`nativeTransfers` 的覆盖率超过99%。余额反推仅在极少数边缘情况下被触发。
---
➢3 SPL代币的元数据迷宫
Solana上的代币信息完全依赖Helius的 `getAsset` RPC 调用。
但是这个接口的返回数据并不总是完整:
某些新兴代币的 `symbol` 字段可能为空
`price_info`字段不是所有代币都有(需要Jupiter等聚合器提供喂价)
我的策略是多级降级:
python

# 1. 调用 Helius getAsset
asset = await helius_get_asset(mint)
symbol = asset.get('content', {}).get('metadata', {}).get('symbol', 'UNKNOWN')

# 2. 获取价格——优先使用 Helius 自带
price_info = asset.get('token_info', {}).get('price_info')
if price_info:
price = price_info.get('price_per_token', 0)
else:
# 3. 降级到 DexScreener API
price = await get_dex_price(mint)
DexScreener 的降级逻辑也很关键:它返回的是该代币在所有 DEX 上的交易对
我需要筛选出流动性最大的那个作为参考价格。
---
➢4 滑动窗口去重的工程实现
Solana交易没有 `log_index` 概念
而且同一笔交易可能因Helius解析产生多条推送。
我的去重方案是一个有限容量的内存滑动窗口:
python

processed_sigs = set()
MAX_SIGS = 1000

def is_duplicate(sig):
if sig in processed_sigs:
return True
processed_sigs.add(sig)

# 超过容量时,截断保留最近 500 条
if len(processed_sigs) > MAX_SIGS:
processed_sigs = set(list(processed_sigs)[-500:])
return False
这个方案在内存占用和去重准确性之间取得了平衡
有人可能会问:为什么不用Redis或SQLite做持久化去重?
因为对于实时监控系统,重启后重新处理少量重复是可接受的。没必要引入外部依赖。
---
➢5 异步日志写入队列:避免 I/O 阻塞
Solana的详细交易日志需要写入JSON文件供前端查询
如果直接在解析协程中写文件,高并发下会导致I/O阻塞和文件损坏
我的方案是生产者-消费者队列:
python

writequeue = asyncio.Queue()

async def file_writer():
while True:
path, data = await writequeue.get()

# 读取已有数据
existing = []
if os.path.exists(path):
with open(path, 'r') as f:
existing = json.load(f)

existing.append(data)

# 保留最近 1000 条
if len(existing) > 1000:
existing = existing[-1000:]

with open(path, 'w') as f:
json.dump(existing, f)

# 在解析协程中
await writequeue.put((log_path, transaction_data))
一个专门的协程负责所有文件 I/O,这彻底杜绝了并发写问题
---

第三部分:AI解读——从“玩具”到“生产级”的工程鸿沟
调用AI API 是容易的
任何一个初学者都能在10分钟内写出调用OpenAI的代码
但是要让AI输出稳定、可解析、对用户有价值的内容,中间隔着巨大的工程鸿沟
以下是我在 AI 模块中的核心设计。
➢1 多提供商特征调度
不同AI提供商的能力侧重点不同:
DeepSeek:代码能力强,适合结构化输出,但是不支持联网
Moonshot:支持内置 `$web_search`,适合需要实时信息的项目解读
Gemma:Google 出品,作为备用兜底
我的调度器基于特征标志而非简单的轮询:
python

class MultiAIClient:
def init(self):
self.providers = [
{'name': 'deepseek', 'features': {'transaction_insight': True, 'daily_report': True}},
{'name': 'moonshot', 'features': {'transaction_insight': True, 'web_search': True}},
{'name': 'gemma', 'features': {'transaction_insight': True}},
]

async def get_insight(self, prompt, required_feature=None):
# 筛选出支持所需特征的提供商
candidates = [p for p in self.providers
if (not required_feature or p['features'].get(required_feature))]

for p in candidates:
result = await self._call_provider(p, prompt)
if result:
return result, p['name']
return None, None
当用户在前端选择“联网搜索”时,系统自动跳过DeepSeek,优先调用 Moonshot
如果Moonshot超时,就降级到Gemma(此时联网功能丢失,但是至少能给出基础解读)。
---
➢2 防御性JSON解析的三层护甲
大模型返回JSON的稳定性堪比“抽盲盒”
我设计了三层解析护甲,这确保了即使AI返回了“半成品垃圾”,前端依然能展示有效信息
第一层:标准JSON解析
python

try:
return json.loads(response)
except json.JSONDecodeError:
pass
第二层:清洗Markdown代码块标记
这是最常见的污染形式——AI会把JSON包裹在 ```` ```json ... ``` ```` 中
python

cleaned = response.strip()
if cleaned.startswith('json'):
cleaned = cleaned[7:]
if cleaned.endswith(''):
cleaned = cleaned[:-3]
cleaned = cleaned.strip()

try:
return json.loads(cleaned)
except:
pass
第三层:正则暴力提取
如果前两层都失败,说明 AI 返回的可能是纯文本或格式完全损坏的JSON。
此时我用正则直接提取关键字段:
python

import re

insight_match = re.search(r'"insight"\s*:\s*"([^"]*)"', response, re.DOTALL)
risk_match = re.search(r'"risk"\s*:\s*"([^"]*)"', response)
risk_reason_match = re.search(r'"risk_reason"\s*:\s*"([^"]*)"', response)

return {
"insight": insight_match.group(1) if insight_match else response[:200],
"risk": risk_match.group(1) if risk_match else "未知",
"risk_reason": risk_reason_match.group(1) if risk_reason_match else ""
}
这三层护甲确保了:AI返回什么垃圾,前端都能展示出可读的内容,而不是白屏报错让用户一脸茫然。
---
➢3 联网搜索的工具调用循环(Moonshot 专用)
Moonshot的 `$web_search` 是一个内置工具。但是OpenAI SDK不会自动处理多轮工具调用
我需要手动实现循环:
python

messages = [{"role": "user", "content": prompt}]
tools = [{"type": "builtin_function", "function": {"name": "$web_search"}}]

max_iterations = 3
for in range(maxiterations):
response = await client.chat.completions.create(
model="kimi-k2.5",
messages=messages,
tools=tools
)
choice = response.choices[0]

if choice.finish_reason == "tool_calls":
# 将助手消息加入历史
messages.append(choice.message)

# 为每个工具调用构造 tool 响应
for tool_call in choice.message.tool_calls:
if tool_call.function.name == "$web_search":
messages.append({
"role": "tool",
"tool_call_id": tool_call.id,
"name": tool_call.function.name,
"content": "搜索已完成" # Moonshot 服务端已执行搜索,客户端只需回传确认
})
else:
# 最终回复
return choice.message.content

return "工具调用超过最大迭代次数"
这个循环的关键在于:服务端已经执行了搜索,客户端只需要按协议回传 `tool` 消息
很多开发者误以为需要在客户端执行搜索,导致实现复杂而且容易出错。
---
➢4 提示词工程的防御性设计
AI解读的提示词不是我随意写的。它是经过多次迭代的“防御性设计”:
plaintext
明文
请严格按照以下JSON格式返回,键名必须为英文:
{
"insight": "详细解读内容(可包含换行)",
"risk": "低/中/高",
"risk_reason": "风险原因描述",
"suggestion": "操作建议(可选)"
}
为什么要强调“键名必须为英文”和“只返回 JSON”?
因为AI在面对中文用户时,有时会“自作聪明”地用中文键名(如 `{“解读”: “。..”, “风险”: “高”}`),导致前端解析失败
明确约束后,成功率从约70%提升到95%以上
---
四 结语:为什么我认为这套系统“很难复现”?
不是因为用了多么高深的算法——事实上,本文拆解的每一个技术点,单独拿出来都不算“黑科技”。
真正的难度在于:
→异构链的适配成本:EVM和Solana 的底层差异巨大。你必须同时精通两套技术栈,市场上能同时驾驭两条链的开发者本就稀缺。
→边缘情况的处理密度:ERC1155的批量解析、Solana的降级反推、代币元数据的异常返回值、WSS 静默断线的检测……每一个“边角料”问题都需要单独编写处理逻辑。这些代码占据了整个项目60%以上的行数,但是在功能演示中完全看不见。
→AI 的工程化落地:把AI从“玩具”变成“可靠的生产力工具”,需要大量的防御性设计
多提供商容错、JSON多层解析、工具调用循环、提示词迭代
这些工作没有现成教程,全靠踩坑积累。
→系统的长期稳定性:节点切换、指数退避、异步队列、WAL 模式……这些运维层面的设计,是系统能7×24小时无人值守运行的基石。
如果你读完这篇文章觉得“信息量过大”或者“有些地方没完全看懂”,那我的目的就达到了。
真正的技术深度,从来不是让人一眼望穿的
它隐藏在那些你甚至没有意识到需要处理的问题里。
---

#新币监控
#土狗币监控
#多链监控软件
#EVM监控
#SOL监控
#web3哨兵
#web3桌面应用软件
#实时监控软件
#异构解析
昨晚睡前看到一条消息,直接把我看清醒了 AI和区块链,这两个本来八竿子打不着的东西,现在居然开始往一起凑了 而且不是那种"概念炒作"的凑,是真的有东西在跑 DeAI(去中心化 AI)这个词,我半年前第一次听说的时候 还以为是某个项目方瞎编的营销词 结果现在一看,OpenClaw 这类AI Agent平台已经在链上跑起来了 关键是,这玩意儿的逻辑其实挺顺的 你想啊,现在的AI都是 OpenAI、Google 这些大厂控制的 你问它问题,它给你答案,但你根本不知道它是怎么算的,数据从哪来的,有没有被动过手脚 但如果AI上链了呢?所有的推理过程、数据来源、模型参数,都能公开验证 这就不是"黑盒"了,而是"透明盒" 我不知道这个方向能不能成,但至少,它解决了一个真实的痛点 另一边,RWA(真实世界资产代币化)也在疯狂扩张 现在的规模已经超过270亿美元了 房地产、债券、基金,这些传统金融的东西,正在一批一批地往链上搬 我之前一直不太理解RWA的意义 毕竟,房子就是房子,债券就是债券,搬到链上有什么用? 但后来我想明白了一件事:流动性 传统资产的问题是流动性太差 你买了一套房,想卖掉,得找中介、谈价格、走流程,至少几个月 但如果房子代币化了呢? 你可以随时在链上交易,甚至可以只卖一部分产权 这就是RWA的核心价值:把不动产变成流动资产 监管也在跟进 稳定币银行化、L2/L3 楼盘化公链,这些都不是"试验"了,而是全球共识 4月20-23 日,香港 Web3 Festival 2026 会聚焦这两个方向 Vitalik、Justin Sun 这些大佬都会来 我不知道他们会说什么,但我知道,亚洲的Web3生态,可能真的要进入下一个阶段了 你更看好哪个方向?DeAI 还是RWA?或者你觉得这两个都是炒作?
昨晚睡前看到一条消息,直接把我看清醒了

AI和区块链,这两个本来八竿子打不着的东西,现在居然开始往一起凑了

而且不是那种"概念炒作"的凑,是真的有东西在跑

DeAI(去中心化 AI)这个词,我半年前第一次听说的时候

还以为是某个项目方瞎编的营销词

结果现在一看,OpenClaw 这类AI Agent平台已经在链上跑起来了

关键是,这玩意儿的逻辑其实挺顺的

你想啊,现在的AI都是 OpenAI、Google 这些大厂控制的

你问它问题,它给你答案,但你根本不知道它是怎么算的,数据从哪来的,有没有被动过手脚

但如果AI上链了呢?所有的推理过程、数据来源、模型参数,都能公开验证

这就不是"黑盒"了,而是"透明盒"

我不知道这个方向能不能成,但至少,它解决了一个真实的痛点

另一边,RWA(真实世界资产代币化)也在疯狂扩张

现在的规模已经超过270亿美元了

房地产、债券、基金,这些传统金融的东西,正在一批一批地往链上搬

我之前一直不太理解RWA的意义

毕竟,房子就是房子,债券就是债券,搬到链上有什么用?

但后来我想明白了一件事:流动性

传统资产的问题是流动性太差

你买了一套房,想卖掉,得找中介、谈价格、走流程,至少几个月

但如果房子代币化了呢?

你可以随时在链上交易,甚至可以只卖一部分产权

这就是RWA的核心价值:把不动产变成流动资产

监管也在跟进

稳定币银行化、L2/L3 楼盘化公链,这些都不是"试验"了,而是全球共识

4月20-23 日,香港 Web3 Festival 2026 会聚焦这两个方向

Vitalik、Justin Sun 这些大佬都会来

我不知道他们会说什么,但我知道,亚洲的Web3生态,可能真的要进入下一个阶段了

你更看好哪个方向?DeAI 还是RWA?或者你觉得这两个都是炒作?
你是哪种币圈人格 快来测一下 币圈人自己的MBTI 朋友圈被刷屏了
你是哪种币圈人格

快来测一下

币圈人自己的MBTI

朋友圈被刷屏了
今天早上刷贴的时候,我本来是想看看有没有什么新的土狗可以冲一下 结果刷着刷着,突然看到一条消息,我愣了好几秒 香港金融管理局发牌照了 不是什么小打小闹的交易所牌照,是稳定币发行牌照 4月10日,HKMA从36份申请中选出了2家 一家是汇丰银行(HSBC),另一家是 Anchorpoint Financial(Animoca Brands + 香港电讯HKT联合打造) 我第一反应是,诶,这事儿好像有点不一样 汇丰银行我就不说了,传统银行巨头 但关键是,他们下半年要把港元稳定币直接接入PayMe和手机银行 以前你要买稳定币,得先去交易所注册、KYC、充值、买币 现在呢?打开手机银行,可能就能直接买港元稳定币了 这就相当于,传统金融的大门,直接给Web3开了一条快速通道 另一家Anchorpoint更有意思 他们Q2就要开始分阶段发行,主打跨境支付和RWA(现实世界资产) 说实话,我之前对稳定币的理解,就是"避险工具" 但现在看来,香港这波操作,是想把稳定币变成真正的支付工具 传统银行 + Web3的强强联手,香港的数字资产格局,我觉得吧,可能真的要升级了 我不太确定这会不会吸引大量机构资金进场,但至少有一点是肯定的:合规化正在加速 以前大家都说"香港对Crypto友好",但那更多是政策层面的表态 现在呢?牌照发了,银行下场了,这就是实打实的落地了 我不知道这对散户来说是好是坏 但我知道,这个市场正在变得越来越"正规" 风险提示:投资有风险,理性参与。本文仅为个人观点分享,不构成投资建议。#香港加密货币ETF
今天早上刷贴的时候,我本来是想看看有没有什么新的土狗可以冲一下

结果刷着刷着,突然看到一条消息,我愣了好几秒

香港金融管理局发牌照了

不是什么小打小闹的交易所牌照,是稳定币发行牌照

4月10日,HKMA从36份申请中选出了2家

一家是汇丰银行(HSBC),另一家是 Anchorpoint Financial(Animoca Brands + 香港电讯HKT联合打造)

我第一反应是,诶,这事儿好像有点不一样

汇丰银行我就不说了,传统银行巨头

但关键是,他们下半年要把港元稳定币直接接入PayMe和手机银行

以前你要买稳定币,得先去交易所注册、KYC、充值、买币

现在呢?打开手机银行,可能就能直接买港元稳定币了

这就相当于,传统金融的大门,直接给Web3开了一条快速通道

另一家Anchorpoint更有意思

他们Q2就要开始分阶段发行,主打跨境支付和RWA(现实世界资产)

说实话,我之前对稳定币的理解,就是"避险工具"

但现在看来,香港这波操作,是想把稳定币变成真正的支付工具

传统银行 + Web3的强强联手,香港的数字资产格局,我觉得吧,可能真的要升级了

我不太确定这会不会吸引大量机构资金进场,但至少有一点是肯定的:合规化正在加速

以前大家都说"香港对Crypto友好",但那更多是政策层面的表态

现在呢?牌照发了,银行下场了,这就是实打实的落地了

我不知道这对散户来说是好是坏

但我知道,这个市场正在变得越来越"正规"

风险提示:投资有风险,理性参与。本文仅为个人观点分享,不构成投资建议。#香港加密货币ETF
群里一堆人对着 $RAVE 那根拉了不知道多少倍的线疯狂咽口水 甚至开始喊山寨季回来了 我看了一眼筹码分布,直接给气笑了 这玩意儿高度控盘,巨鲸左手倒右手把交易量刷爆,就等着眼红的散户往里冲当燃料呢 别看 $XRP 和 $DOGE 那些老骨头今天也跟着诈尸了一下 这根本不是什么普涨行情,就是场内存量资金在乱窜 真没必要去这种高危局里赌命 你要是看着那根绿线实在手痒,觉得钱多烧口袋,不如直接转给我。
群里一堆人对着 $RAVE 那根拉了不知道多少倍的线疯狂咽口水

甚至开始喊山寨季回来了

我看了一眼筹码分布,直接给气笑了

这玩意儿高度控盘,巨鲸左手倒右手把交易量刷爆,就等着眼红的散户往里冲当燃料呢

别看 $XRP 和 $DOGE 那些老骨头今天也跟着诈尸了一下

这根本不是什么普涨行情,就是场内存量资金在乱窜

真没必要去这种高危局里赌命

你要是看着那根绿线实在手痒,觉得钱多烧口袋,不如直接转给我。
美国报税日刚过,BTC不跌反涨,今天一度涨了近6%,冲到75k 附近 我本来以为报税季会有抛压。结果完全相反 几个观察: 极恐指数23:市场情绪还是很悲观 但是价格已经开始反弹了 这种背离通常是个信号 MicroStrategy又买了:最近10亿刀级别的入场 机构还在继续囤币 美联储的钱要来了:Fed未来几周要注入400多亿流动性 双重催化下,短期可能还有空间 我自己的判断:这波可能不是牛市正式起点,但至少是个阶段性底部。 #美联储何时降息?
美国报税日刚过,BTC不跌反涨,今天一度涨了近6%,冲到75k 附近

我本来以为报税季会有抛压。结果完全相反

几个观察:

极恐指数23:市场情绪还是很悲观

但是价格已经开始反弹了

这种背离通常是个信号

MicroStrategy又买了:最近10亿刀级别的入场

机构还在继续囤币

美联储的钱要来了:Fed未来几周要注入400多亿流动性

双重催化下,短期可能还有空间

我自己的判断:这波可能不是牛市正式起点,但至少是个阶段性底部。
#美联储何时降息?
Ak chcete preskúmať ďalší obsah, prihláste sa
Pripojte sa k používateľom kryptomien na celom svete na Binance Square
⚡️ Získajte najnovšie a užitočné informácie o kryptomenách.
💬 Dôvera najväčšej kryptoburzy na svete.
👍 Objavte skutočné poznatky od overených tvorcov.
E-mail/telefónne číslo
Mapa stránok
Predvoľby súborov cookie
Podmienky platformy