Binance Square

Miss_Tokyo

Experienced Crypto Trader & Technical Analyst ...X ID 👉 Miss_TokyoX
Ouvert au trading
Trade fréquemment
4.4 an(s)
133 Suivis
19.5K+ Abonnés
10.6K+ J’aime
328 Partagé(s)
Publications
Portefeuille
·
--
Je viens de recevoir ma récompense de la campagne Robo, et cela a vraiment égayé ma journée. 😊🎉✨ C'est un de ces moments où l'on s'arrête une seconde et réalise que le temps et l'effort que l'on a investis ont réellement abouti à quelque chose de concret. Ce n'est pas une énorme étape, mais c'est certainement un moment significatif pour moi. Je me sens reconnaissant, un peu fier, et prêt à continuer. Aujourd'hui, je célèbre cette petite victoire. #binancesquare #creatorpad #Write2Earn #robocampaign
Je viens de recevoir ma récompense de la campagne Robo, et cela a vraiment égayé ma journée. 😊🎉✨

C'est un de ces moments où l'on s'arrête une seconde et réalise que le temps et l'effort que l'on a investis ont réellement abouti à quelque chose de concret. Ce n'est pas une énorme étape, mais c'est certainement un moment significatif pour moi.

Je me sens reconnaissant, un peu fier, et prêt à continuer. Aujourd'hui, je célèbre cette petite victoire.
#binancesquare #creatorpad #Write2Earn #robocampaign
Le Problème Silencieux Derrière l'IA ModerneLes systèmes d'IA d'aujourd'hui peuvent rédiger des rapports, analyser de grands ensembles de données et produire des informations stratégiques en quelques secondes. Après avoir passé du temps à expérimenter avec quelques-uns de ces outils, la vitesse cesse d'être la partie impressionnante. Ce qui commence à se démarquer à la place, c'est autre chose : à quel point il peut être difficile de savoir si la sortie est réellement correcte. La plupart des réponses semblent convaincantes à première vue. La structure est soignée, le ton semble confiant, et l'explication suit généralement un chemin logique. Mais lorsque vous lisez attentivement, de petites incohérences apparaissent parfois. Une statistique peut être légèrement erronée, une affirmation peut dépendre d'une hypothèse, ou un détail peut ne pas correspondre entièrement au matériel source.

Le Problème Silencieux Derrière l'IA Moderne

Les systèmes d'IA d'aujourd'hui peuvent rédiger des rapports, analyser de grands ensembles de données et produire des informations stratégiques en quelques secondes. Après avoir passé du temps à expérimenter avec quelques-uns de ces outils, la vitesse cesse d'être la partie impressionnante. Ce qui commence à se démarquer à la place, c'est autre chose : à quel point il peut être difficile de savoir si la sortie est réellement correcte.
La plupart des réponses semblent convaincantes à première vue. La structure est soignée, le ton semble confiant, et l'explication suit généralement un chemin logique. Mais lorsque vous lisez attentivement, de petites incohérences apparaissent parfois. Une statistique peut être légèrement erronée, une affirmation peut dépendre d'une hypothèse, ou un détail peut ne pas correspondre entièrement au matériel source.
Quand j'ai entendu parler d'une couche de vérification pour l'IA, je n'y ai pas beaucoup pensé. Cela ressemblait à l'une de ces idées qui semblent intéressantes en théorie mais maladroites une fois qu'elles touchent aux flux de travail réels. Puis vous regardez comment les gens utilisent réellement les modèles. Personne ne s'arrête pour penser à l'incertitude. Ils copient la sortie, la collent quelque part et passent à autre chose. La vitesse l'emporte. Jusqu'à ce qu'elle ne le fasse plus. Le vrai problème n'est généralement pas la réponse incorrecte occasionnelle. C'est que la réponse incorrecte a l'air tout aussi propre que la bonne. Une fois que l'IA commence à alimenter des processus qui comptent réellement paiements, approbations, vérifications de conformité le coût de "probablement correct" change rapidement. À ce moment-là, la question n'est pas vraiment de savoir à quel point le modèle est intelligent. C'est de savoir si quelqu'un peut se porter garant de la décision plus tard. La plupart des solutions suggérées par les gens ne vieillissent pas bien. L'examen humain devient une formalité parce que personne n'a le temps. Les ajustements de prompt commencent à ressembler à des conjectures. Les validateurs centralisés introduisent simplement un autre acteur en qui vous êtes censé avoir confiance, et la confiance a tendance à se briser au moment où des litiges ou des audits apparaissent. C'est pourquoi j'ai trouvé Mira intéressant. Au lieu de traiter la sortie de l'IA comme quelque chose de final, cela la traite davantage comme quelque chose qui nécessite un règlement. Divisez la réponse en revendications, effectuez des vérifications séparées et laissez une trace de ce qui a été vérifié. C'est un objectif très peu excitant, ce qui est généralement un bon signe lorsque vous examinez l'infrastructure. Que cela ait de l'importance dépend de choses simples : peut-il fonctionner rapidement, peut-il rester abordable et réduit-il réellement les litiges. Si ce n'est pas le cas, les équipes continueront probablement à faire ce qu'elles ont toujours fait utiliser l'IA pour la vitesse et gérer les conséquences plus tard. @mira_network #Mira $MIRA {spot}(MIRAUSDT)
Quand j'ai entendu parler d'une couche de vérification pour l'IA, je n'y ai pas beaucoup pensé. Cela ressemblait à l'une de ces idées qui semblent intéressantes en théorie mais maladroites une fois qu'elles touchent aux flux de travail réels. Puis vous regardez comment les gens utilisent réellement les modèles. Personne ne s'arrête pour penser à l'incertitude. Ils copient la sortie, la collent quelque part et passent à autre chose. La vitesse l'emporte. Jusqu'à ce qu'elle ne le fasse plus.
Le vrai problème n'est généralement pas la réponse incorrecte occasionnelle. C'est que la réponse incorrecte a l'air tout aussi propre que la bonne. Une fois que l'IA commence à alimenter des processus qui comptent réellement paiements, approbations, vérifications de conformité le coût de "probablement correct" change rapidement. À ce moment-là, la question n'est pas vraiment de savoir à quel point le modèle est intelligent. C'est de savoir si quelqu'un peut se porter garant de la décision plus tard.
La plupart des solutions suggérées par les gens ne vieillissent pas bien. L'examen humain devient une formalité parce que personne n'a le temps. Les ajustements de prompt commencent à ressembler à des conjectures. Les validateurs centralisés introduisent simplement un autre acteur en qui vous êtes censé avoir confiance, et la confiance a tendance à se briser au moment où des litiges ou des audits apparaissent.
C'est pourquoi j'ai trouvé Mira intéressant. Au lieu de traiter la sortie de l'IA comme quelque chose de final, cela la traite davantage comme quelque chose qui nécessite un règlement. Divisez la réponse en revendications, effectuez des vérifications séparées et laissez une trace de ce qui a été vérifié. C'est un objectif très peu excitant, ce qui est généralement un bon signe lorsque vous examinez l'infrastructure.
Que cela ait de l'importance dépend de choses simples : peut-il fonctionner rapidement, peut-il rester abordable et réduit-il réellement les litiges. Si ce n'est pas le cas, les équipes continueront probablement à faire ce qu'elles ont toujours fait utiliser l'IA pour la vitesse et gérer les conséquences plus tard.
@Mira - Trust Layer of AI #Mira $MIRA
J'ai passé du temps à explorer comment fonctionne le Fabric Protocol en pratique. Ce qui a attiré mon attention n'est pas seulement les robots eux-mêmes, mais la structure qui les entoure. Le système essaie de gérer deux choses qui sont souvent négligées : d'où proviennent les données d'entraînement et qui fournit la capacité de calcul pour faire fonctionner le tout. Dans Fabric, les deux groupes de personnes contribuant aux données et ceux exécutant des nœuds sont considérés comme des participants au réseau. Une autre pièce intéressante est la façon dont les compétences peuvent se déplacer entre les robots. Si une machine apprend quelque chose d'utile, comme naviguer sur un terrain difficile ou gérer une étape d'assemblage spécifique, ce savoir peut être partagé au lieu de rester verrouillé à ce robot. Ainsi, les améliorations ne se produisent pas robot par robot. Elles peuvent se répandre à travers tout le réseau. C'est encore tôt, et il y a beaucoup de questions ouvertes. Mais la couche humaine sur la façon dont les gens contribuent et sont récompensés semble tout aussi importante ici que la robotique elle-même. @FabricFND #ROBO #robo $ROBO {spot}(ROBOUSDT)
J'ai passé du temps à explorer comment fonctionne le Fabric Protocol en pratique. Ce qui a attiré mon attention n'est pas seulement les robots eux-mêmes, mais la structure qui les entoure.
Le système essaie de gérer deux choses qui sont souvent négligées : d'où proviennent les données d'entraînement et qui fournit la capacité de calcul pour faire fonctionner le tout. Dans Fabric, les deux groupes de personnes contribuant aux données et ceux exécutant des nœuds sont considérés comme des participants au réseau.
Une autre pièce intéressante est la façon dont les compétences peuvent se déplacer entre les robots. Si une machine apprend quelque chose d'utile, comme naviguer sur un terrain difficile ou gérer une étape d'assemblage spécifique, ce savoir peut être partagé au lieu de rester verrouillé à ce robot.
Ainsi, les améliorations ne se produisent pas robot par robot. Elles peuvent se répandre à travers tout le réseau.
C'est encore tôt, et il y a beaucoup de questions ouvertes. Mais la couche humaine sur la façon dont les gens contribuent et sont récompensés semble tout aussi importante ici que la robotique elle-même.
@Fabric Foundation #ROBO #robo $ROBO
Fabric Foundation (ROBO) : Regarder une idée avant que le système n'existeAprès avoir lu suffisamment de nouveaux projets d'infrastructure crypto, un schéma commence à apparaître. Le sujet change tous les quelques mois : agents IA, automatisation, robotique, mais la structure reste souvent la même. Un grand avenir est décrit, un problème de coordination est mentionné, et quelque part en cours de route, un token apparaît qui est censé tout connecter. La Fondation Fabric suit un chemin similaire, mais cela m'a fait ralentir pour une raison différente. Au lieu de se concentrer uniquement sur les systèmes numériques, elle essaie de réfléchir à quelque chose de plus physique : des machines effectuant un véritable travail dans le monde et l'infrastructure qui pourrait être nécessaire si ces machines commencent à interagir avec des systèmes économiques.

Fabric Foundation (ROBO) : Regarder une idée avant que le système n'existe

Après avoir lu suffisamment de nouveaux projets d'infrastructure crypto, un schéma commence à apparaître. Le sujet change tous les quelques mois : agents IA, automatisation, robotique, mais la structure reste souvent la même. Un grand avenir est décrit, un problème de coordination est mentionné, et quelque part en cours de route, un token apparaît qui est censé tout connecter.
La Fondation Fabric suit un chemin similaire, mais cela m'a fait ralentir pour une raison différente.
Au lieu de se concentrer uniquement sur les systèmes numériques, elle essaie de réfléchir à quelque chose de plus physique : des machines effectuant un véritable travail dans le monde et l'infrastructure qui pourrait être nécessaire si ces machines commencent à interagir avec des systèmes économiques.
J'ai passé du temps à creuser le protocole Robo Fabric, essayant de comprendre ce qu'il vise réellement à construire. Au début, cela ressemble à un autre projet de robotique ou d'automatisation. Mais plus je m'y intéressais, plus il devenait clair que Robo Fabric n'est pas vraiment axé sur la construction de meilleurs robots. Il essaie de résoudre un problème de coordination. Ce qui m'a marqué, c'est la façon dont le protocole traite l'activité des machines. Au lieu de voir un robot accomplissant une tâche comme une simple entrée dans une base de données d'entreprise, Robo Fabric essaie de transformer cette action en quelque chose qui peut être vérifié et partagé entre différentes parties. En termes simples, le travail devient vérifiable. Lorsque qu'une machine termine un travail, le système est conçu pour produire un enregistrement que d'autres peuvent vérifier et approuver. Pas juste un journal privé, mais quelque chose qui peut exister au-delà d'une seule organisation. Le focus n'est pas vraiment sur le contrôle des machines. Il s'agit de s'accorder sur ce qu'elles ont réellement fait. Ce changement semble important. Pendant des années, l'automatisation a surtout consisté à améliorer les capacités en rendant les machines plus rapides, plus intelligentes et plus autonomes. Robo Fabric semble plus intéressé par ce qui se passe après que le travail soit terminé. Comment le vérifions-nous ? Qui le reconnaît ? Et finalement, qui est payé pour cela ? La comparaison qui m'est venue à l'esprit était Internet. Internet n'a pas créé de connaissances, il a facilité le partage et la confiance dans l'information à travers différents systèmes. Robo Fabric semble essayer quelque chose de similaire, mais pour l'exécution de machines dans le monde réel. Si cela fonctionne à grande échelle, le grand changement ne sera pas de savoir si les machines peuvent faire le travail. Nous savons déjà qu'elles le peuvent. La grande question devient comment ce travail est enregistré, vérifié et réglé entre différentes parties sans se fier à un seul intermédiaire de confiance. Il est encore tôt, et il y a beaucoup de questions ouvertes autour des standards, des litiges et de la façon dont ces systèmes se connectent au monde réel. Mais la direction a du sens. Cela ne ressemble pas vraiment à une infrastructure robotique. Cela ressemble plus à une couche de confiance pour le travail généré par les machines. @FabricFND #ROBO #robo $ROBO {spot}(ROBOUSDT)
J'ai passé du temps à creuser le protocole Robo Fabric, essayant de comprendre ce qu'il vise réellement à construire.
Au début, cela ressemble à un autre projet de robotique ou d'automatisation. Mais plus je m'y intéressais, plus il devenait clair que Robo Fabric n'est pas vraiment axé sur la construction de meilleurs robots.
Il essaie de résoudre un problème de coordination.
Ce qui m'a marqué, c'est la façon dont le protocole traite l'activité des machines. Au lieu de voir un robot accomplissant une tâche comme une simple entrée dans une base de données d'entreprise, Robo Fabric essaie de transformer cette action en quelque chose qui peut être vérifié et partagé entre différentes parties.
En termes simples, le travail devient vérifiable.
Lorsque qu'une machine termine un travail, le système est conçu pour produire un enregistrement que d'autres peuvent vérifier et approuver. Pas juste un journal privé, mais quelque chose qui peut exister au-delà d'une seule organisation.
Le focus n'est pas vraiment sur le contrôle des machines.
Il s'agit de s'accorder sur ce qu'elles ont réellement fait.
Ce changement semble important. Pendant des années, l'automatisation a surtout consisté à améliorer les capacités en rendant les machines plus rapides, plus intelligentes et plus autonomes. Robo Fabric semble plus intéressé par ce qui se passe après que le travail soit terminé.
Comment le vérifions-nous ?
Qui le reconnaît ?
Et finalement, qui est payé pour cela ?
La comparaison qui m'est venue à l'esprit était Internet. Internet n'a pas créé de connaissances, il a facilité le partage et la confiance dans l'information à travers différents systèmes. Robo Fabric semble essayer quelque chose de similaire, mais pour l'exécution de machines dans le monde réel.
Si cela fonctionne à grande échelle, le grand changement ne sera pas de savoir si les machines peuvent faire le travail. Nous savons déjà qu'elles le peuvent.
La grande question devient comment ce travail est enregistré, vérifié et réglé entre différentes parties sans se fier à un seul intermédiaire de confiance.
Il est encore tôt, et il y a beaucoup de questions ouvertes autour des standards, des litiges et de la façon dont ces systèmes se connectent au monde réel.
Mais la direction a du sens.
Cela ne ressemble pas vraiment à une infrastructure robotique.
Cela ressemble plus à une couche de confiance pour le travail généré par les machines.
@Fabric Foundation #ROBO #robo
$ROBO
Fabric Protocol et le Problème de la Vérification du Travail PhysiqueLorsque j'ai commencé à explorer le Fabric Protocol, mon attention a été attirée par l'angle de la robotique. Machines autonomes, portefeuilles, jetons, et un réseau conçu pour coordonner le travail des machines. À première vue, cela ressemblait à une autre expérience à l'intersection de la robotique et de la crypto. Après avoir passé plus de temps avec l'architecture et la documentation, ce qui ressortait n'était pas la robotique elle-même. La question la plus intéressante est la vérification. Dans la plupart des systèmes de blockchain, la vérification du travail est simple. Le calcul se déroule dans des environnements déterministes. Les nœuds peuvent rejouer les transactions et confirmer les résultats. Les mécanismes de consensus dépendent de l'idée que tout ce qui est important se passe dans le logiciel.

Fabric Protocol et le Problème de la Vérification du Travail Physique

Lorsque j'ai commencé à explorer le Fabric Protocol, mon attention a été attirée par l'angle de la robotique. Machines autonomes, portefeuilles, jetons, et un réseau conçu pour coordonner le travail des machines. À première vue, cela ressemblait à une autre expérience à l'intersection de la robotique et de la crypto.
Après avoir passé plus de temps avec l'architecture et la documentation, ce qui ressortait n'était pas la robotique elle-même. La question la plus intéressante est la vérification.
Dans la plupart des systèmes de blockchain, la vérification du travail est simple. Le calcul se déroule dans des environnements déterministes. Les nœuds peuvent rejouer les transactions et confirmer les résultats. Les mécanismes de consensus dépendent de l'idée que tout ce qui est important se passe dans le logiciel.
J'ai travaillé dans le domaine de la finance suffisamment longtemps pour développer une habitude : quand quelque chose semble confiant, je commence à chercher la partie où cela le prouve. Au cours des dernières semaines, j'ai passé du temps à interagir réellement avec Mira Network. Pas à lire des fils de discussion ou des résumés, juste à le tester et à essayer de voir comment le système se comporte lorsque vous regardez au-delà de la surface. La question à laquelle je revenais était simple : Vérifie-t-il réellement ses résultats, ou produit-il simplement des réponses qui semblent convaincantes ? Un choix de conception s'est rapidement distingué. Mira sépare la génération de la validation. Le modèle génère une sortie, puis des nœuds validateurs indépendants vérifient ce résultat avant que quoi que ce soit ne progresse. Le système ne compte pas sur le modèle pour confirmer son propre travail. Cela peut sembler un petit détail architectural, mais en pratique, c'est important. Dans des domaines comme la détection de fraude, la notation de crédit ou la conformité, "probablement correct" n'est pas une marge confortable. Une mauvaise sortie peut se transformer en disputes, audits ou attention réglementaire plus rapidement que les gens ne s'y attendent. Je suis généralement prudent à propos des grandes promesses dans l'infrastructure IA. Ce qui a rendu cela intéressant n'était pas le battage médiatique ou des affirmations audacieuses. Si quelque chose, la conception semblait plus silencieuse, plus concentrée sur la façon dont le système se tient responsable. Il ne cherche pas à faire en sorte que l'IA ait l'air plus intelligente. Il cherche à rendre ses sorties vérifiables. Et honnêtement, cela semble être une direction plus importante pour cet espace. #Mira #MIRA $MIRA @mira_network {spot}(MIRAUSDT)
J'ai travaillé dans le domaine de la finance suffisamment longtemps pour développer une habitude : quand quelque chose semble confiant, je commence à chercher la partie où cela le prouve.
Au cours des dernières semaines, j'ai passé du temps à interagir réellement avec Mira Network. Pas à lire des fils de discussion ou des résumés, juste à le tester et à essayer de voir comment le système se comporte lorsque vous regardez au-delà de la surface.
La question à laquelle je revenais était simple :
Vérifie-t-il réellement ses résultats, ou produit-il simplement des réponses qui semblent convaincantes ?
Un choix de conception s'est rapidement distingué. Mira sépare la génération de la validation. Le modèle génère une sortie, puis des nœuds validateurs indépendants vérifient ce résultat avant que quoi que ce soit ne progresse. Le système ne compte pas sur le modèle pour confirmer son propre travail.
Cela peut sembler un petit détail architectural, mais en pratique, c'est important. Dans des domaines comme la détection de fraude, la notation de crédit ou la conformité, "probablement correct" n'est pas une marge confortable. Une mauvaise sortie peut se transformer en disputes, audits ou attention réglementaire plus rapidement que les gens ne s'y attendent.
Je suis généralement prudent à propos des grandes promesses dans l'infrastructure IA. Ce qui a rendu cela intéressant n'était pas le battage médiatique ou des affirmations audacieuses. Si quelque chose, la conception semblait plus silencieuse, plus concentrée sur la façon dont le système se tient responsable.
Il ne cherche pas à faire en sorte que l'IA ait l'air plus intelligente.
Il cherche à rendre ses sorties vérifiables.
Et honnêtement, cela semble être une direction plus importante pour cet espace.
#Mira #MIRA $MIRA @Mira - Trust Layer of AI
Repensons la fiabilité de l'IA à travers le réseau MiraEt si le véritable défi avec l'IA n'était pas qu'elle fasse des erreurs mais qu'elle semble complètement certaine lorsqu'elle le fait ? Au cours des dernières semaines, j'ai passé un certain temps à expérimenter à nouveau avec la couche de vérification de Mira. Mais cette fois, je l'ai abordée un peu différemment. Au lieu de simplement vérifier si elle pouvait attraper des hallucinations simples, je voulais voir comment elle se comporte lorsque les réponses de l'IA deviennent plus compliquées. Pas des faits de base, mais des explications, des résumés et des réponses qui nécessitent un raisonnement plus approfondi. Si vous utilisez l'IA régulièrement, vous remarquez finalement quelque chose d'intéressant. Les erreurs apparaissent rarement comme des erreurs évidentes.

Repensons la fiabilité de l'IA à travers le réseau Mira

Et si le véritable défi avec l'IA n'était pas qu'elle fasse des erreurs mais qu'elle semble complètement certaine lorsqu'elle le fait ?
Au cours des dernières semaines, j'ai passé un certain temps à expérimenter à nouveau avec la couche de vérification de Mira. Mais cette fois, je l'ai abordée un peu différemment. Au lieu de simplement vérifier si elle pouvait attraper des hallucinations simples, je voulais voir comment elle se comporte lorsque les réponses de l'IA deviennent plus compliquées. Pas des faits de base, mais des explications, des résumés et des réponses qui nécessitent un raisonnement plus approfondi.
Si vous utilisez l'IA régulièrement, vous remarquez finalement quelque chose d'intéressant. Les erreurs apparaissent rarement comme des erreurs évidentes.
Je me souviens d'avoir lu la réponse et pensé, c'est bon. C'était clair. Structuré. Confiant. Le genre de réponse que l'on ne ressent pas le besoin de vérifier. C'était faux. Ce moment ne m'a pas fait méfiance envers l'IA. Cela m'a fait comprendre l'IA différemment. L'IA n'essaie pas de tromper qui que ce soit. Elle prédit. Elle génère la réponse qui semble statistiquement la plus probable étant donné les données qu'elle a. La plupart du temps, ça fonctionne. Mais quand elle se trompe, elle se trompe avec confiance. C'est la partie qui reste avec vous. Si l'IA rédige des contrats, examine des bilans ou déclenche des transactions, la confiance sans vérification devient un véritable risque. Pourtant, la réponse de l'industrie a principalement été d'échelle des modèles plus grands, d'inférences plus rapides, plus de paramètres. L'hypothèse est simple : l'intelligence s'améliore avec la taille. La précision ne suit pas toujours. Ce qui a attiré mon attention à propos de Mira, c'est qu'elle remet en question une prémisse plus basique : qu'un modèle devrait être digne de confiance en premier lieu. Au lieu de traiter une réponse comme une sortie terminée, le système la décompose en revendications plus petites. Ces revendications sont vérifiées indépendamment par plusieurs modèles, chacun incité à les évaluer honnêtement. Seules les revendications qui atteignent un consensus sont conservées, et le processus est enregistré sur la chaîne. Conceptuellement, cela semble plus proche de la manière dont la crypto gère la vérification du transfert de valeur au lieu de la confiance, la coordination au lieu de l'autorité. Lorsque je l'ai essayé, l'expérience semblait différente. Plus lente, oui. Mais aussi plus délibérée. Moins comme une supposition polie, et plus comme quelque chose qui avait été contesté avant d'atteindre ma personne. Cette différence compte. Cela ne ressemble pas à une autre expérience "IA + blockchain". Cela ressemble plus à une tentative d'ajouter quelque chose qui fait encore défaut à l'IA : la responsabilité de l'information. Après avoir vu à quel point une mauvaise réponse peut sembler convaincante, cette couche commence à avoir beaucoup de sens. @mira_network #Mira #mira $MIRA {spot}(MIRAUSDT)
Je me souviens d'avoir lu la réponse et pensé, c'est bon.
C'était clair. Structuré. Confiant. Le genre de réponse que l'on ne ressent pas le besoin de vérifier.
C'était faux.
Ce moment ne m'a pas fait méfiance envers l'IA. Cela m'a fait comprendre l'IA différemment. L'IA n'essaie pas de tromper qui que ce soit. Elle prédit. Elle génère la réponse qui semble statistiquement la plus probable étant donné les données qu'elle a. La plupart du temps, ça fonctionne.
Mais quand elle se trompe, elle se trompe avec confiance.
C'est la partie qui reste avec vous.
Si l'IA rédige des contrats, examine des bilans ou déclenche des transactions, la confiance sans vérification devient un véritable risque. Pourtant, la réponse de l'industrie a principalement été d'échelle des modèles plus grands, d'inférences plus rapides, plus de paramètres. L'hypothèse est simple : l'intelligence s'améliore avec la taille.
La précision ne suit pas toujours.
Ce qui a attiré mon attention à propos de Mira, c'est qu'elle remet en question une prémisse plus basique : qu'un modèle devrait être digne de confiance en premier lieu.
Au lieu de traiter une réponse comme une sortie terminée, le système la décompose en revendications plus petites. Ces revendications sont vérifiées indépendamment par plusieurs modèles, chacun incité à les évaluer honnêtement. Seules les revendications qui atteignent un consensus sont conservées, et le processus est enregistré sur la chaîne.
Conceptuellement, cela semble plus proche de la manière dont la crypto gère la vérification du transfert de valeur au lieu de la confiance, la coordination au lieu de l'autorité.
Lorsque je l'ai essayé, l'expérience semblait différente. Plus lente, oui. Mais aussi plus délibérée. Moins comme une supposition polie, et plus comme quelque chose qui avait été contesté avant d'atteindre ma personne.
Cette différence compte.
Cela ne ressemble pas à une autre expérience "IA + blockchain". Cela ressemble plus à une tentative d'ajouter quelque chose qui fait encore défaut à l'IA : la responsabilité de l'information.
Après avoir vu à quel point une mauvaise réponse peut sembler convaincante, cette couche commence à avoir beaucoup de sens.
@Mira - Trust Layer of AI
#Mira #mira $MIRA
Un examen plus approfondi de la couche de confiance de Mira pour l'IAJ'expérimente avec la couche de vérification de Mira depuis un certain temps maintenant. Pas seulement en lisant à son sujet, mais en passant réellement des réponses générées par l'IA à travers le système pour voir comment cela fonctionne en pratique. L'idée derrière Mira est assez simple. Les modèles d'IA sont impressionnants, mais ils ne sont pas toujours fiables. Au lieu d'essayer de construire un modèle qui ne fait jamais d'erreurs, Mira adopte une approche différente : elle vérifie ce qu'un modèle dit en demandant à d'autres modèles de l'évaluer. Si vous avez travaillé avec de grands modèles de langage assez longtemps, vous avez probablement compris pourquoi cela compte. Les hallucinations se produisent. Les modèles produisent parfois des informations qui semblent convaincantes mais qui s'avèrent fausses. Ils ne le font pas intentionnellement, ils prédisent simplement quel texte est le plus susceptible de venir ensuite. Parfois, ces prédictions s'éloignent de la réalité.

Un examen plus approfondi de la couche de confiance de Mira pour l'IA

J'expérimente avec la couche de vérification de Mira depuis un certain temps maintenant. Pas seulement en lisant à son sujet, mais en passant réellement des réponses générées par l'IA à travers le système pour voir comment cela fonctionne en pratique.
L'idée derrière Mira est assez simple. Les modèles d'IA sont impressionnants, mais ils ne sont pas toujours fiables. Au lieu d'essayer de construire un modèle qui ne fait jamais d'erreurs, Mira adopte une approche différente : elle vérifie ce qu'un modèle dit en demandant à d'autres modèles de l'évaluer.
Si vous avez travaillé avec de grands modèles de langage assez longtemps, vous avez probablement compris pourquoi cela compte. Les hallucinations se produisent. Les modèles produisent parfois des informations qui semblent convaincantes mais qui s'avèrent fausses. Ils ne le font pas intentionnellement, ils prédisent simplement quel texte est le plus susceptible de venir ensuite. Parfois, ces prédictions s'éloignent de la réalité.
J'ai passé un certain temps à creuser dans Fabric et à essayer de comprendre comment cela fonctionne réellement au-delà de la surface. Plus je regardais, plus je réalisais que ce n'est pas vraiment une question d'infrastructure robotique au sens traditionnel. Fabric n'essaie pas de construire de meilleurs robots. Elle essaie de résoudre un problème de coordination. Ce qui m'a le plus intéressé, c'est que la véritable innovation ne semble pas résider dans le matériel ou même dans la pile d'autonomie. C'est dans la manière dont le système détermine et enregistre ce qui s'est réellement passé après qu'une tâche soit accomplie. Lorsque une machine termine un travail, Fabric vise à produire un enregistrement partagé et vérifiable de ce résultat, quelque chose de plus fiable qu'un journal d'entreprise ou une entrée de base de données interne. En termes simples, elle traite les actions physiques comme des événements économiques. En utilisant un calcul vérifiable et un grand livre partagé, le travail effectué par un robot peut être attesté, vérifié et finalement réglé entre différentes parties. L'accent n'est pas vraiment mis sur le contrôle des machines. Il s'agit de créer un accord autour de leur production. La comparaison la plus proche qui m'est venue à l'esprit était l'IA. L'IA élargit l'accès à la connaissance. Fabric semble essayer d'élargir la confiance dans l'exécution du monde réel. C'est un problème beaucoup plus difficile. Si quelque chose comme cela fonctionne à grande échelle, le changement ne portera pas sur la question de savoir si les machines peuvent effectuer le travail dont nous savons déjà qu'elles peuvent le faire. La question la plus intéressante devient qui est payé quand elles le font, et comment ce paiement est vérifié et appliqué sans compter sur une seule partie de confiance. Il est encore tôt, et il y a beaucoup de questions ouvertes concernant les litiges, les cas particuliers et la normalisation. Mais la direction est intéressante. Cela ne ressemble pas vraiment à une infrastructure robotique. Cela ressemble davantage à une couche de règlement pour le travail physique. #ROBO #robo $ROBO {spot}(ROBOUSDT)
J'ai passé un certain temps à creuser dans Fabric et à essayer de comprendre comment cela fonctionne réellement au-delà de la surface.
Plus je regardais, plus je réalisais que ce n'est pas vraiment une question d'infrastructure robotique au sens traditionnel.
Fabric n'essaie pas de construire de meilleurs robots. Elle essaie de résoudre un problème de coordination.
Ce qui m'a le plus intéressé, c'est que la véritable innovation ne semble pas résider dans le matériel ou même dans la pile d'autonomie. C'est dans la manière dont le système détermine et enregistre ce qui s'est réellement passé après qu'une tâche soit accomplie.
Lorsque une machine termine un travail, Fabric vise à produire un enregistrement partagé et vérifiable de ce résultat, quelque chose de plus fiable qu'un journal d'entreprise ou une entrée de base de données interne.
En termes simples, elle traite les actions physiques comme des événements économiques.
En utilisant un calcul vérifiable et un grand livre partagé, le travail effectué par un robot peut être attesté, vérifié et finalement réglé entre différentes parties. L'accent n'est pas vraiment mis sur le contrôle des machines. Il s'agit de créer un accord autour de leur production.
La comparaison la plus proche qui m'est venue à l'esprit était l'IA.
L'IA élargit l'accès à la connaissance. Fabric semble essayer d'élargir la confiance dans l'exécution du monde réel.
C'est un problème beaucoup plus difficile.
Si quelque chose comme cela fonctionne à grande échelle, le changement ne portera pas sur la question de savoir si les machines peuvent effectuer le travail dont nous savons déjà qu'elles peuvent le faire.
La question la plus intéressante devient qui est payé quand elles le font, et comment ce paiement est vérifié et appliqué sans compter sur une seule partie de confiance.
Il est encore tôt, et il y a beaucoup de questions ouvertes concernant les litiges, les cas particuliers et la normalisation.
Mais la direction est intéressante.
Cela ne ressemble pas vraiment à une infrastructure robotique.
Cela ressemble davantage à une couche de règlement pour le travail physique.
#ROBO #robo
$ROBO
Fabric Protocol et la question de la propriétéLorsque j'ai d'abord examiné le Fabric Protocol, j'ai pensé que je comprenais déjà ce que c'était. Une autre expérience où la robotique rencontre la crypto. Un jeton attaché à des agents IA. L'espace a produit beaucoup de ces choses, donc il semblait raisonnable de l'aborder avec prudence. Mais après avoir passé du temps à lire la documentation, à explorer des parties du système et à essayer de comprendre comment tout se connecte, j'ai commencé à avoir l'impression que Fabric essaie de traiter quelque chose de plus profond. Ce n'est pas vraiment une question de robots. Il s'agit de qui possède le travail des machines.

Fabric Protocol et la question de la propriété

Lorsque j'ai d'abord examiné le Fabric Protocol, j'ai pensé que je comprenais déjà ce que c'était. Une autre expérience où la robotique rencontre la crypto. Un jeton attaché à des agents IA. L'espace a produit beaucoup de ces choses, donc il semblait raisonnable de l'aborder avec prudence.
Mais après avoir passé du temps à lire la documentation, à explorer des parties du système et à essayer de comprendre comment tout se connecte, j'ai commencé à avoir l'impression que Fabric essaie de traiter quelque chose de plus profond.
Ce n'est pas vraiment une question de robots.
Il s'agit de qui possède le travail des machines.
J'ai passé un peu de temps à explorer Fabric et à essayer de comprendre comment cela fonctionne réellement au-delà de la surface. À première vue, cela ressemble à une infrastructure robotique. Mais plus je l'examinais, plus j'avais l'impression que ce n'était pas vraiment le but. Fabric n'essaie pas de construire de meilleurs robots. Il essaie de résoudre un problème de coordination. Ce qui m'a frappé, c'est que le véritable objectif n'est pas le matériel ou même le logiciel d'autonomie. C'est la façon dont le système détermine et enregistre ce qui s'est réellement passé après qu'une tâche est terminée. Lorsque une machine termine un travail, Fabric produit un enregistrement partagé et vérifiable de ce résultat. Quelque chose de plus fiable qu'un journal d'entreprise ou une entrée de base de données interne. En termes simples, il traite les actions physiques comme des événements économiques. Grâce à une computation vérifiable et un grand livre partagé, le travail qu'un robot effectue peut être attesté, vérifié et finalement réglé. L'objectif n'est pas vraiment de contrôler les machines. Il s'agit de créer un accord autour du résultat de leur travail. La comparaison qui me venait à l'esprit était l'IA. L'IA élargit l'accès à la connaissance. Fabric semble essayer d'élargir la confiance dans l'exécution du monde réel. C'est un problème plus difficile. Si quelque chose comme cela fonctionne à grande échelle, le changement ne portera probablement pas sur la capacité des machines à effectuer le travail. Nous savons déjà qu'elles peuvent le faire. La question la plus intéressante devient qui est payé quand elles le font et comment ce paiement est vérifié et appliqué sans se fier à une seule partie de confiance. Il est encore tôt, et il y a beaucoup de questions ouvertes. Les litiges, les pannes de capteurs, les cas extrêmes désordonnés dans le monde réel, rien de tout cela n'est facile à standardiser. Mais la direction est intéressante. Fabric ne ressemble pas vraiment à une infrastructure robotique. Cela ressemble davantage à une couche de règlement pour le travail physique. #ROBO #robo $ROBO @FabricFND {spot}(ROBOUSDT)
J'ai passé un peu de temps à explorer Fabric et à essayer de comprendre comment cela fonctionne réellement au-delà de la surface.
À première vue, cela ressemble à une infrastructure robotique. Mais plus je l'examinais, plus j'avais l'impression que ce n'était pas vraiment le but.
Fabric n'essaie pas de construire de meilleurs robots. Il essaie de résoudre un problème de coordination.
Ce qui m'a frappé, c'est que le véritable objectif n'est pas le matériel ou même le logiciel d'autonomie. C'est la façon dont le système détermine et enregistre ce qui s'est réellement passé après qu'une tâche est terminée. Lorsque une machine termine un travail, Fabric produit un enregistrement partagé et vérifiable de ce résultat. Quelque chose de plus fiable qu'un journal d'entreprise ou une entrée de base de données interne.
En termes simples, il traite les actions physiques comme des événements économiques.
Grâce à une computation vérifiable et un grand livre partagé, le travail qu'un robot effectue peut être attesté, vérifié et finalement réglé. L'objectif n'est pas vraiment de contrôler les machines. Il s'agit de créer un accord autour du résultat de leur travail.
La comparaison qui me venait à l'esprit était l'IA.
L'IA élargit l'accès à la connaissance. Fabric semble essayer d'élargir la confiance dans l'exécution du monde réel.
C'est un problème plus difficile.
Si quelque chose comme cela fonctionne à grande échelle, le changement ne portera probablement pas sur la capacité des machines à effectuer le travail. Nous savons déjà qu'elles peuvent le faire. La question la plus intéressante devient qui est payé quand elles le font et comment ce paiement est vérifié et appliqué sans se fier à une seule partie de confiance.
Il est encore tôt, et il y a beaucoup de questions ouvertes. Les litiges, les pannes de capteurs, les cas extrêmes désordonnés dans le monde réel, rien de tout cela n'est facile à standardiser.
Mais la direction est intéressante.
Fabric ne ressemble pas vraiment à une infrastructure robotique.
Cela ressemble davantage à une couche de règlement pour le travail physique.
#ROBO #robo
$ROBO
@Fabric Foundation
Qui possède le travail des machines ? Un examen plus approfondi du Fabric ProtocolLorsque j'ai d'abord rencontré le Fabric Protocol, je pensais déjà comprendre ce que c'était. Un autre croisement entre la robotique et la crypto. Un jeton lié aux agents d'IA. J'en ai vu suffisamment pour être un peu sceptique en entrant. Mais après avoir passé du temps à lire la documentation, à explorer des parties du système et à essayer de comprendre comment les éléments se connectent réellement, j'ai commencé à avoir l'impression que Fabric essaie d'aborder quelque chose de plus fondamental. Qu'il réussisse est une autre question. Mais le problème sur lequel il se concentre est réel.

Qui possède le travail des machines ? Un examen plus approfondi du Fabric Protocol

Lorsque j'ai d'abord rencontré le Fabric Protocol, je pensais déjà comprendre ce que c'était. Un autre croisement entre la robotique et la crypto. Un jeton lié aux agents d'IA. J'en ai vu suffisamment pour être un peu sceptique en entrant.
Mais après avoir passé du temps à lire la documentation, à explorer des parties du système et à essayer de comprendre comment les éléments se connectent réellement, j'ai commencé à avoir l'impression que Fabric essaie d'aborder quelque chose de plus fondamental. Qu'il réussisse est une autre question. Mais le problème sur lequel il se concentre est réel.
Je regardais un tour de vérification de Mira plus tôt et j'ai remarqué quelque chose qui apparaît rarement dans les rapports de référence. Parfois, la sortie la plus honnête qu'un système d'IA peut produire est simplement : « pas encore. » Pas faux. Pas juste. Juste non résolu. Dans le DVN de Mira Network, vous pouvez en fait voir cet état. Un fragment assis à 62,8 % lorsque le seuil est de 67 % ne signifie pas que le système a échoué. Cela signifie simplement que le réseau n'est pas prêt à l'appeler résolu. Et c'est intéressant. Chaque validateur qui n'a pas encore engagé de poids dit essentiellement : « Je ne suis pas à l'aise de mettre mon $MIRA en jeu derrière cette revendication pour le moment. » Cette hésitation fait partie du processus. Le consensus ici n'est pas quelque chose que vous générez avec une bonne communication ou un bon marketing. Les validateurs doivent encore décider s'ils sont prêts à risquer leur mise sur une revendication. Jusqu'à ce qu'assez d'entre eux soient convaincus, le réseau reste simplement dans cet état intermédiaire. C'est une petite chose, mais cela m'a marqué. Mira traite silencieusement l'incertitude comme un résultat légitime, pas quelque chose que le système essaie de cacher. Dans un espace où les systèmes semblent souvent plus confiants qu'ils ne devraient l'être, cette retenue semble être un signal utile. @mira_network #Mira $MIRA
Je regardais un tour de vérification de Mira plus tôt et j'ai remarqué quelque chose qui apparaît rarement dans les rapports de référence.
Parfois, la sortie la plus honnête qu'un système d'IA peut produire est simplement : « pas encore. »
Pas faux.
Pas juste.
Juste non résolu.
Dans le DVN de Mira Network, vous pouvez en fait voir cet état. Un fragment assis à 62,8 % lorsque le seuil est de 67 % ne signifie pas que le système a échoué. Cela signifie simplement que le réseau n'est pas prêt à l'appeler résolu.
Et c'est intéressant.
Chaque validateur qui n'a pas encore engagé de poids dit essentiellement :
« Je ne suis pas à l'aise de mettre mon $MIRA en jeu derrière cette revendication pour le moment. »
Cette hésitation fait partie du processus.
Le consensus ici n'est pas quelque chose que vous générez avec une bonne communication ou un bon marketing. Les validateurs doivent encore décider s'ils sont prêts à risquer leur mise sur une revendication.
Jusqu'à ce qu'assez d'entre eux soient convaincus, le réseau reste simplement dans cet état intermédiaire.
C'est une petite chose, mais cela m'a marqué.
Mira traite silencieusement l'incertitude comme un résultat légitime, pas quelque chose que le système essaie de cacher.
Dans un espace où les systèmes semblent souvent plus confiants qu'ils ne devraient l'être, cette retenue semble être un signal utile.
@Mira - Trust Layer of AI
#Mira $MIRA
Mira Network : Tester une autre façon de faire confiance à l'IAJ'ai passé du temps à tester directement la couche de vérification de Mira. Pas seulement en lisant comment cela fonctionne, mais en exécutant réellement des réponses générées par l'IA à travers elle et en observant ce qui se passe. Le principe derrière Mira est assez simple : les modèles d'IA sont puissants, mais ils ne sont pas toujours fiables. Au lieu d'essayer de construire un modèle parfait, Mira essaie de vérifier ce qu'un modèle dit en laissant d'autres modèles vérifier les affirmations. Quiconque travaille avec des modèles de langage large pendant suffisamment longtemps finit par les voir halluciner. Ils ne le font pas intentionnellement. Ces systèmes génèrent du texte en fonction de la probabilité, prédisant ce qui semble juste ensuite. La plupart du temps, cela fonctionne étonnamment bien. Mais parfois, la sortie semble convaincante tout en étant incorrecte. Dans des situations informelles, c'est gérable. Dans des domaines comme la finance, la médecine ou le droit, cela devient plus sérieux.

Mira Network : Tester une autre façon de faire confiance à l'IA

J'ai passé du temps à tester directement la couche de vérification de Mira. Pas seulement en lisant comment cela fonctionne, mais en exécutant réellement des réponses générées par l'IA à travers elle et en observant ce qui se passe. Le principe derrière Mira est assez simple : les modèles d'IA sont puissants, mais ils ne sont pas toujours fiables. Au lieu d'essayer de construire un modèle parfait, Mira essaie de vérifier ce qu'un modèle dit en laissant d'autres modèles vérifier les affirmations.
Quiconque travaille avec des modèles de langage large pendant suffisamment longtemps finit par les voir halluciner. Ils ne le font pas intentionnellement. Ces systèmes génèrent du texte en fonction de la probabilité, prédisant ce qui semble juste ensuite. La plupart du temps, cela fonctionne étonnamment bien. Mais parfois, la sortie semble convaincante tout en étant incorrecte. Dans des situations informelles, c'est gérable. Dans des domaines comme la finance, la médecine ou le droit, cela devient plus sérieux.
Je me souviens d'avoir lu une réponse d'IA une fois et d'avoir pensé que c'était solide. L'explication était claire, la logique semblait propre, et cela semblait suffisamment fiable pour ne pas avoir besoin de la remettre en question. Plus tard, j'ai vérifié la source. La réponse semblait convaincante, mais l'hypothèse qui la sous-tendait était incorrecte. Ce moment ne m'a pas rendu sceptique vis-à-vis de l'IA. Cela m'a juste aidé à mieux la comprendre. L'IA ne raisonne pas comme nous l'imaginons souvent. Elle prédit la séquence de mots la plus probable en fonction des modèles qu'elle a appris pendant l'entraînement. La plupart du temps, cela fonctionne. Mais parfois, cela mène à des erreurs qui semblent encore complètement confiantes. Et cette confiance est la partie délicate. Lorsque l'IA commence à assister dans la recherche, l'analyse financière ou les décisions techniques, une erreur confiante n'est pas inoffensive. Cela devient un risque. Plus les gens s'appuient sur la sortie, plus la vérification devient importante. Ce qui a attiré mon attention à propos de Mira, c'est qu'elle aborde le problème différemment. Au lieu de faire confiance à un seul modèle pour produire la meilleure réponse, Mira traite la réponse comme quelque chose qui devrait être examiné. La sortie est décomposée en revendications plus petites, et ces revendications sont évaluées indépendamment par plusieurs modèles qui sont incités à vérifier l'exactitude. Seules les parties qui atteignent un consensus restent, et l'ensemble du processus d'évaluation est enregistré sur la chaîne. C'est moins une question de faire confiance à l'intelligence et plus une question de créer un système qui la vérifie. L'idée semble similaire à la façon dont les blockchains gèrent les transactions. Rien n'est accepté juste parce qu'une partie dit que c'est valide. Le réseau le vérifie d'abord. Mira semble appliquer cette même logique à l'information. Lorsque j'ai interagi avec elle, l'expérience semblait légèrement différente. Un peu plus lente, oui, mais aussi plus délibérée. La réponse semblait avoir été contestée avant de m'atteindre. Après avoir vu à quel point une réponse incorrecte peut être convaincante, ce type de couche de vérification commence à avoir beaucoup de sens. @mira_network #Mira #mira $MIRA {spot}(MIRAUSDT)
Je me souviens d'avoir lu une réponse d'IA une fois et d'avoir pensé que c'était solide. L'explication était claire, la logique semblait propre, et cela semblait suffisamment fiable pour ne pas avoir besoin de la remettre en question. Plus tard, j'ai vérifié la source. La réponse semblait convaincante, mais l'hypothèse qui la sous-tendait était incorrecte. Ce moment ne m'a pas rendu sceptique vis-à-vis de l'IA. Cela m'a juste aidé à mieux la comprendre. L'IA ne raisonne pas comme nous l'imaginons souvent. Elle prédit la séquence de mots la plus probable en fonction des modèles qu'elle a appris pendant l'entraînement. La plupart du temps, cela fonctionne. Mais parfois, cela mène à des erreurs qui semblent encore complètement confiantes. Et cette confiance est la partie délicate. Lorsque l'IA commence à assister dans la recherche, l'analyse financière ou les décisions techniques, une erreur confiante n'est pas inoffensive. Cela devient un risque. Plus les gens s'appuient sur la sortie, plus la vérification devient importante. Ce qui a attiré mon attention à propos de Mira, c'est qu'elle aborde le problème différemment. Au lieu de faire confiance à un seul modèle pour produire la meilleure réponse, Mira traite la réponse comme quelque chose qui devrait être examiné. La sortie est décomposée en revendications plus petites, et ces revendications sont évaluées indépendamment par plusieurs modèles qui sont incités à vérifier l'exactitude. Seules les parties qui atteignent un consensus restent, et l'ensemble du processus d'évaluation est enregistré sur la chaîne. C'est moins une question de faire confiance à l'intelligence et plus une question de créer un système qui la vérifie. L'idée semble similaire à la façon dont les blockchains gèrent les transactions. Rien n'est accepté juste parce qu'une partie dit que c'est valide. Le réseau le vérifie d'abord. Mira semble appliquer cette même logique à l'information. Lorsque j'ai interagi avec elle, l'expérience semblait légèrement différente. Un peu plus lente, oui, mais aussi plus délibérée. La réponse semblait avoir été contestée avant de m'atteindre. Après avoir vu à quel point une réponse incorrecte peut être convaincante, ce type de couche de vérification commence à avoir beaucoup de sens.
@Mira - Trust Layer of AI
#Mira #mira $MIRA
Tester l'idée de consensus de l'IA avec le réseau MiraAu cours des dernières semaines, j'ai passé du temps à expérimenter à nouveau avec la couche de vérification de Mira, mais cette fois, je l'ai abordée d'une manière un peu différente. Au lieu de simplement vérifier si elle peut détecter des hallucinations évidentes, je voulais voir comment elle se comporte lorsque les résultats de l'IA deviennent plus compliqués. Pas de simples faits, mais des explications, des résumés et des réponses lourdes en raisonnement. Une chose qui devient claire lorsque vous travaillez régulièrement avec l'IA, c'est que les erreurs ne ressemblent généralement pas à des erreurs au départ. La plupart du temps, la réponse semble parfaitement raisonnable. Le langage est confiant, la structure a du sens, et rien ne semble immédiatement incorrect. C'est seulement lorsque vous commencez à vérifier les détails que vous réalisez que certains de ces détails n'ont jamais été réels.

Tester l'idée de consensus de l'IA avec le réseau Mira

Au cours des dernières semaines, j'ai passé du temps à expérimenter à nouveau avec la couche de vérification de Mira, mais cette fois, je l'ai abordée d'une manière un peu différente. Au lieu de simplement vérifier si elle peut détecter des hallucinations évidentes, je voulais voir comment elle se comporte lorsque les résultats de l'IA deviennent plus compliqués. Pas de simples faits, mais des explications, des résumés et des réponses lourdes en raisonnement.
Une chose qui devient claire lorsque vous travaillez régulièrement avec l'IA, c'est que les erreurs ne ressemblent généralement pas à des erreurs au départ. La plupart du temps, la réponse semble parfaitement raisonnable. Le langage est confiant, la structure a du sens, et rien ne semble immédiatement incorrect. C'est seulement lorsque vous commencez à vérifier les détails que vous réalisez que certains de ces détails n'ont jamais été réels.
Une chose à propos de la robotique m'occupe l'esprit dernièrement. J'ai passé un peu plus de temps à explorer Fabric, essayant de comprendre quel problème le système essaie réellement de résoudre. À première vue, cela ressemble à un autre projet axé sur l'infrastructure robotique. C’est l’hypothèse naturelle lorsque des machines sont impliquées. Mais plus je l'explorais, plus j'avais l'impression que les robots eux-mêmes n'étaient pas vraiment le point principal. Fabric semble se concentrer sur ce qui se passe après qu'une machine a terminé son travail. Lorsqu'un robot accomplit une tâche dans le monde réel, quelque chose de précieux s'est produit. Un colis est déplacé, une étagère est organisée, une inspection est terminée. Mais confirmer ce résultat entre différentes parties n'est pas toujours simple. La plupart du temps, la preuve de ce travail se trouve dans le propre système d'une entreprise — une entrée de journal, un enregistrement de base de données ou un tableau de bord de plateforme. Cela fonctionne en interne, mais cela ne crée pas toujours de la confiance en dehors de ce système. Ce qui m'a marqué, c'est que Fabric semble conçu pour rendre le résultat du travail d'une machine vérifiable au-delà de la plateforme qui l'a exécuté. Au lieu de s'appuyer sur les enregistrements d'un seul opérateur, le résultat peut être vérifié et approuvé par d'autres également. En termes simples, le travail devient quelque chose qui peut être vérifié, convenu et finalement réglé. La comparaison qui me venait à l'esprit était l'infrastructure cloud. Le cloud n'a pas changé ce que les ordinateurs étaient capables de faire. Il a changé la façon dont les ressources informatiques pouvaient être partagées et coordonnées entre de nombreux utilisateurs différents. Fabric donne l'impression d'explorer une idée similaire pour la robotique. Pas d'amélioration directe des machines, mais de construire un système où les résultats de leur travail peuvent être dignes de confiance et reconnus par différents participants. Si cette direction fonctionne, le changement intéressant ne sera pas seulement une meilleure automatisation. Cela sera la façon dont les gens se coordonnent autour des résultats du travail des machines. C'est un défi plus compliqué. Mais cela pourrait aussi être la couche la plus importante à long terme. @FabricFND #ROBO #robo $ROBO {spot}(ROBOUSDT)
Une chose à propos de la robotique m'occupe l'esprit dernièrement.
J'ai passé un peu plus de temps à explorer Fabric, essayant de comprendre quel problème le système essaie réellement de résoudre.
À première vue, cela ressemble à un autre projet axé sur l'infrastructure robotique. C’est l’hypothèse naturelle lorsque des machines sont impliquées.
Mais plus je l'explorais, plus j'avais l'impression que les robots eux-mêmes n'étaient pas vraiment le point principal.
Fabric semble se concentrer sur ce qui se passe après qu'une machine a terminé son travail.
Lorsqu'un robot accomplit une tâche dans le monde réel, quelque chose de précieux s'est produit. Un colis est déplacé, une étagère est organisée, une inspection est terminée.
Mais confirmer ce résultat entre différentes parties n'est pas toujours simple.
La plupart du temps, la preuve de ce travail se trouve dans le propre système d'une entreprise — une entrée de journal, un enregistrement de base de données ou un tableau de bord de plateforme. Cela fonctionne en interne, mais cela ne crée pas toujours de la confiance en dehors de ce système.
Ce qui m'a marqué, c'est que Fabric semble conçu pour rendre le résultat du travail d'une machine vérifiable au-delà de la plateforme qui l'a exécuté.
Au lieu de s'appuyer sur les enregistrements d'un seul opérateur, le résultat peut être vérifié et approuvé par d'autres également.
En termes simples, le travail devient quelque chose qui peut être vérifié, convenu et finalement réglé.
La comparaison qui me venait à l'esprit était l'infrastructure cloud.
Le cloud n'a pas changé ce que les ordinateurs étaient capables de faire. Il a changé la façon dont les ressources informatiques pouvaient être partagées et coordonnées entre de nombreux utilisateurs différents.
Fabric donne l'impression d'explorer une idée similaire pour la robotique.
Pas d'amélioration directe des machines, mais de construire un système où les résultats de leur travail peuvent être dignes de confiance et reconnus par différents participants.
Si cette direction fonctionne, le changement intéressant ne sera pas seulement une meilleure automatisation.
Cela sera la façon dont les gens se coordonnent autour des résultats du travail des machines.
C'est un défi plus compliqué.
Mais cela pourrait aussi être la couche la plus importante à long terme.
@Fabric Foundation
#ROBO #robo
$ROBO
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos
💬 Interagissez avec vos créateurs préféré(e)s
👍 Profitez du contenu qui vous intéresse
Adresse e-mail/Nº de téléphone
Plan du site
Préférences en matière de cookies
CGU de la plateforme