La gestion de la mémoire AI est un besoin réel. Chaque fois que je change d'outil AI, tout le contexte de la conversation précédente est perdu, et je dois réexpliquer le besoin, ce qui est très ennuyeux. myNeutron proposé par Vanar dit vouloir résoudre ce point de douleur en déplaçant la couche de mémoire sur la blockchain, permettant à l'AI de se souvenir de vos préférences et de votre historique à travers les plateformes et les sessions. Cela semble beau, mais après avoir utilisé la version v1.3 pendant deux semaines, je me rends compte qu'il y a un écart entre l'idéal et la réalité.
myNeutron的核心逻辑是把各种数据源(网页、文档、对话)压缩成"种子"(Seeds),然后自动打包成"记忆包"(Bundles),形成可查询的组合上下文。v1.3的更新加了自动打包功能,理论上AI会自动识别新种子该归到哪个记忆包里,不用手动整理。我测试的场景是把研究区块链项目的网页和报告都存进去,看它能不能帮我快速调取相关信息。
Au début, l'expérience était plutôt bonne. Une fois le plugin Chrome installé, vous pouvez sauvegarder des pages utiles d'un simple clic pour en faire des semences. La vitesse de compression est également rapide, un article de plusieurs milliers de mots est traité en quelques secondes. Mais le problème est rapidement arrivé : la précision de l'emballage automatique est vraiment insuffisante. J'ai sauvegardé une dizaine de contenus sur des protocoles DeFi, il a automatiquement créé trois paquets de mémoire, et les informations sur Uniswap et Curve ont été réparties dans différents paquets, la raison étant "modèles de liquidité différents". Cette logique de classification se tient, mais lorsque je cherchais "comparaison des protocoles DEX", il ne renvoyait que le contenu d'un paquet, l'autre paquet devant être consulté séparément, ce qui a rendu l'expérience plus fragmentée.
Il y a aussi une question encore plus gênante : la qualité de compression des semences est instable. J'ai sauvegardé un livre blanc technique, l'original comportait des dérivations d'équations détaillées, mais dans la semence, toutes les équations sont devenues des descriptions textuelles, la précision a complètement disparu. Le service client a dit que c'était pour la compression sémantique, transformant les symboles en langage naturel, mais cela représente une véritable catastrophe pour les documents techniques. Si vous étudiez des algorithmes d'IA ou du code de contrats intelligents, myNeutron est pratiquement inutilisable, il convient uniquement aux informations textuelles pures, le traitement des données structurées et du code est très médiocre.
La fonction de mémoire multiplateforme est en effet présente. J'ai connecté les semences à Claude et GPT, et les deux peuvent appeler le même ensemble de paquets de mémoire sans avoir à réintroduire les informations de contexte. Mais il y a une contradiction ici : le stockage en chaîne signifie que chaque requête doit passer par la blockchain, ce qui entraîne un temps de latence beaucoup plus élevé que le stockage local. J'ai fait un test, une requête sur un paquet de mémoire prend en moyenne 3 à 5 secondes, et si le paquet contient de nombreuses semences, la latence peut atteindre 10 secondes. Cette vitesse est trop lente pour des scénarios d'IA nécessitant des interactions rapides, surtout pour la complétion de code ou les dialogues en temps réel, il est simplement impossible d'attendre. Vanar insiste sur la "durabilité de la mémoire", mais cela sacrifie la vitesse de réponse, ce compromis ne convient pas forcément à tous les scénarios.
Ce qui m'a le plus surpris, c'est le modèle d'abonnement. myNeutron est actuellement gratuit, mais l'équipe a annoncé qu'elle passerait à un modèle par abonnement, et les activités sur la chaîne entraîneront des frais. Les détails concernant la tarification n'ont pas été publiés, mais puisque l'on doit opérer sur la chaîne, les frais de Gas sont inévitables. Vanar utilise le consensus DPoS, théoriquement les frais de Gas devraient être inférieurs à ceux d'Ethereum, mais le problème est que son activité sur la chaîne est trop faible, avec seulement 83 transactions DEX par jour, il est impossible de prévoir ce qu'il adviendra des frais en cas de congestion du réseau. Si une fonction aussi basique que la gestion de la mémoire nécessite de payer fréquemment des frais de Gas, les utilisateurs ordinaires pourront-ils l'accepter ? J'en doute.
Comparé aux produits concurrents, la différenciation de myNeutron réside dans le stockage sur la chaîne et la multiplateforme, mais cela reste aussi son inconvénient. Des outils de prise de notes comme Notion ou Obsidian peuvent également gérer des connaissances, de manière rapide, gratuite et localisée, bien qu'ils ne puissent pas interagir entre différentes plateformes d'IA, la plupart des gens n'ont pas besoin de scénarios aussi complexes. Ceux qui ont vraiment besoin d'une mémoire sur la chaîne sont probablement des applications de niveau entreprise, comme l'audit de conformité ou la collaboration multi-parties, mais les fonctionnalités actuelles de myNeutron semblent encore clairement orientées vers les utilisateurs individuels, sans gestion des droits d'accès au niveau de l'entreprise ni isolation des données.
J'ai aussi brièvement essayé le moteur d'inférence Kayon. Il peut effectuer des requêtes en langage naturel, comme "trouver les protocoles dont la TVL a augmenté de plus de 10 % au cours des 7 derniers jours", et les résultats sont effectivement plus pratiques que d'utiliser directement l'API. Mais le problème est que les sources de données de Kayon sont limitées, il se concentre principalement sur des données publiques comme DeFiLlama, et les données en temps réel sur la chaîne ne sont pas couvertes. J'ai posé la question "Quel est le plus grand pool de liquidité sur la chaîne Vanar ?", il m'a dit directement qu'il n'y avait pas de données, la raison étant que les statistiques du navigateur de la chaîne de Vanar sont incomplètes. C'est assez ironique, ne pas pouvoir accéder aux données de sa propre chaîne, comment convaincre les utilisateurs de l'utiliser pour interroger d'autres chaînes ?
Il y a aussi un détail technique qui mérite d'être mentionné : l'algorithme de compression de Neutron est propriétaire et non open source. Officiellement, c'est pour protéger la propriété intellectuelle, mais c'est assez inhabituel pour un projet blockchain. L'esprit de la blockchain est l'open source et la transparence, Neutron a rendu la logique de compression centrale fermée, comment les utilisateurs peuvent-ils vérifier qu'il n'a pas altéré les données ? Bien que Vanar insiste sur le fait que le stockage en chaîne est immuable, si l'étape de compression n'est pas transparente, le traitement des données avant l'enchaînement est une boîte noire. Ce problème n'est pas beaucoup discuté dans la communauté technique, probablement parce que peu de gens l'utilisent, mais si myNeutron veut vraiment se développer à grande échelle, l'open source est une question inévitable à laquelle il devra faire face.
En termes de maturité du produit, myNeutron est encore à un stade précoce. L'emballage automatique de la version 1.3 est un progrès, mais la précision et la facilité d'utilisation ne sont pas suffisantes. Il convient à ceux qui sont prêts à expérimenter et ont des besoins profonds en flux de travail d'IA, mais le coût d'apprentissage est trop élevé pour les utilisateurs ordinaires. De plus, le soutien communautaire de Vanar est très faible, il n'y a pas de discussions actives sur Discord, et en cas de problème, il faut généralement se débrouiller seul, ce qui est fatal pour la promotion du produit.
Pour dire quelque chose de positif : l'interface utilisateur du plugin Chrome de myNeutron est plutôt claire, l'opération de sauvegarde des semences est très fluide, au moins il n'y a pas de bugs évidents. Le concept de mémoire multiplateforme a également effectivement touché un point sensible, mais sa mise en œuvre n'est pas encore suffisamment aboutie. Si les problèmes de qualité de compression, de latence des requêtes et de couverture des sources de données peuvent être résolus dans les prochaines versions, et que les prix sont rendus raisonnables, myNeutron a encore du potentiel. Mais à ce stade, il ressemble plus à une démonstration technique qu'à un produit mature.
Ma conclusion est que myNeutron est actuellement seulement adapté pour un premier essai, pas comme outil principal. Si vos besoins consistent à gérer une grande quantité d'informations textuelles et que vous êtes prêt à tolérer des délais et une classification imparfaite, vous pouvez essayer. Mais si vous devez traiter des données structurées, du code, ou avez besoin d'interactions fréquentes, il vaut mieux utiliser des outils traditionnels. L'idée de la couche mémoire AI de Vanar est très avant-gardiste, mais le fossé entre la mise en œuvre technique et l'expérience utilisateur n'est pas encore comblé. J'attends avec impatience des améliorations substantielles dans les prochaines versions, ne laissez pas un bon concept échouer à cause d'une mauvaise exécution.

