J'ai réfléchi à l'infrastructure d'IA décentralisée et je continue de penser à combien la vérification va être importante. Maintenant, l'IA peut créer des choses qui semblent vraiment bien, mais nous ne sommes pas toujours sûrs qu'elles soient correctes. Ce que j'aime dans l'approche de Mira, c'est qu'elle ne prend pas simplement ce que l'IA dit pour vrai. Au lieu de cela, elle teste la sortie de l'IA pour s'assurer qu'elle est correcte. L'approche de Mira transforme les choses que l'IA dit en affirmations qui peuvent être vérifiées et elle permet à de nombreux modèles différents d'examiner ces affirmations par eux-mêmes. Cela rend le système plus responsable, ce qui est quelque chose que la plupart des systèmes d'IA n'ont pas aujourd'hui. Je pense que ce type de réseau de vérification pourrait être très important si nous voulons que l'IA fonctionne bien dans le monde. L'approche de Mira et son réseau de vérification sont des choses auxquelles je pense beaucoup lorsque je considère l'infrastructure d'IA décentralisée et comment la vérification va devenir plus importante que la génération.
Pourquoi l'IA a besoin d'une infrastructure de vérification. Mon avis après avoir étudié le design de Mira
Au cours des dernières années, l'IA a fait des progrès incroyables. Les modèles peuvent rédiger des essais, générer du code et même créer des images ou des vidéos. Mais plus j'explore comment ces systèmes fonctionnent, plus je réalise que l'intelligence sans fiabilité est une fondation. L'IA est comme un bâtiment qui a besoin d'une base pour tenir. En étudiant les idées présentées dans le livre blanc de Mira, un thème ne cessait de me revenir à l'esprit : l'IA ne échoue pas parce qu'elle manque de connaissances, elle échoue parce qu'elle manque de vérification. Je pensais sans cesse à cette idée et à la façon dont elle se rapporte à l'IA.
Repenser la fiabilité de l'IA : pourquoi la vérification décentralisée est la couche
Après avoir lu le livre blanc de Mira, j'ai commencé à réfléchir à la puissance de l'IA, mais aussi à sa fragilité. Nous parlons souvent des modèles de langage et de leur capacité à s'exprimer, à être créatifs et à travailler rapidement. Mais si nous regardons de plus près, nous pouvons voir que les systèmes d'IA ont une limitation : ils sont basés sur la probabilité. Ils ne "savent" pas vraiment des choses comme le font les humains. Ils font simplement des prédictions. Les prédictions, peu importe leur qualité, peuvent être erronées. Parfois, cette erreur se manifeste sous la forme de quelque chose qui n'est pas vrai. D'autres fois, elle se manifeste sous forme de biais. Peu importe la taille ou l'entraînement d'un modèle unique, ce problème ne disparaît jamais vraiment.
J'ai examiné comment Mira fonctionne et ce que je remarque, c'est qu'elle est confrontée à un problème avec l'IA : elle n'est pas toujours fiable. L'IA peut donner des réponses qui semblent bonnes. Cela ne signifie pas qu'elles sont justes. Mira aborde ce problème de manière.
* Elle décompose les réponses en affirmations qui peuvent être vérifiées.
* Ensuite, elle permet à un réseau de modèles de s'accorder sur ce qui est vrai.
Ce que je pense être vraiment puissant, c'est la façon dont elle utilise l'économie pour s'assurer que les nœuds sont honnêtes.
Les nœuds doivent mettre quelque chose de valeur en jeu, donc il n'est pas logique pour eux de tricher.
Il ne s'agit pas de rendre l'IA plus grande et meilleure ; il s'agit de rendre l'IA responsable.
Pour moi, cela semble être un pas vers une IA capable de fonctionner de manière autonome et digne de confiance.
Le Modèle de Graphique Hybride est un moyen de récompenser le vrai travail
Lorsque je lisais la documentation de Fabric Foundation, je suis tombé sur le modèle de valeur de Graphique Hybride. Cela m'a vraiment fait réfléchir. Ce n'est pas quelque chose que vous voyez habituellement dans les systèmes blockchain. Le Modèle de Graphique Hybride ne récompense pas les personnes qui participent en fonction de l'argent qu'elles gagnent ou simplement en fonction de ce qu'elles font. Le Modèle de Graphique Hybride récompense les personnes en fonction de ces deux éléments. Il change l'importance de chacun au fur et à mesure que le réseau vieillit. Au début, ce que font les gens est plus important car le système est encore en croissance.
Plus j'apprends sur Fabric, plus j'aime comment il vérifie si tout fonctionne correctement. Il ne suppose pas que les robots fonctionneront toujours parfaitement. Au lieu de cela, il suppose que parfois, ils peuvent échouer.
* Il s'assure que les personnes responsables des robots sont responsables de ce qui se passe.
* Ils doivent mettre de l'argent en jeu, comme une garantie.
* D'autres personnes surveillent pour s'assurer que tout va bien.
* Si quelqu'un essaie de tricher, il a des problèmes. Perdre de l'argent.
Cette façon de faire semble mature pour moi. Lorsque les machines commencent à faire des travaux, vous ne pouvez pas simplement faire confiance à leur bon fonctionnement.
Vous devez vous assurer qu'elles sont conçues pour être dignes de confiance.
Fabric a un moyen de vérifier si les robots fonctionnent correctement. Il leur donne un défi à relever.
S'ils essaient de tricher, cela leur coûte beaucoup d'argent.
Je pense que c'est ce genre de réflexion dont nous avons besoin si les robots vont travailler dans le monde.
Fabric suppose que l'échec est possible. Il construit des règles autour de cela.
Le système basé sur des défis de Fabric est intéressant car il rend la tricherie peu rentable.
Je pense que Fabric est sur la bonne voie, avec son modèle de vérification.
Fabric me fait vraiment réfléchir à la manière dont les robots peuvent fonctionner.
Fabric Foundation travaille vers un avenir où les humains et les robots peuvent grandir ensemble
Dernièrement, j'ai pensé à la façon dont la robotique et l'intelligence artificielle avancent. Il semble qu'à chaque mois, les machines s'améliorent de plus en plus et deviennent une plus grande partie de notre vie quotidienne. Je me demande qui est réellement responsable de tout cela. C'est à ce moment-là que j'ai commencé à m'intéresser à Fabric Foundation. @Fabric Foundation n'est pas un autre projet qui implique des robots. Ce que je pense qui est différent à ce sujet, c'est qu'il ne traite pas les robots comme quelque chose qu'une entreprise peut posséder. Au lieu de cela, il essaie de créer un système où beaucoup de gens peuvent contribuer et faire partie de son fonctionnement.
Une chose que je ne vois pas beaucoup de gens aborder dans @Fabric Foundation est son design d'émission. La plupart des réseaux ont une offre de jetons fixe. Ils espèrent que plus de gens commenceront à l'utiliser. Fabric fait les choses différemment. Les émissions changent en fonction de la manière dont les gens utilisent réellement le réseau et de la qualité des services.
C'est un changement. Cela signifie que les récompenses sont basées sur la performance réelle du réseau, et non sur ce que les gens pensent qu'il pourrait faire. Si les robots ne sont pas beaucoup utilisés, le système essaie d'inciter plus de gens à participer. Si la qualité du service n'est pas bonne, les récompenses sont réduites.
Pour moi, cela ressemble à un véritable système économique plutôt qu'à beaucoup d'excitation. Il ne s'agit pas de construire des robots. Il s'agit de construire un système qui peut changer et évoluer à mesure que les machines et les humains travaillent ensemble. Fabric concerne vraiment la création d'un système qui peut évoluer au fil du temps. C'est ce que je trouve si intéressant, à propos de Fabric et de son design d'émission adaptatif. #ROBO $ROBO
La conception économique de Mira : pourquoi les incitations comptent plus que les modèles
Lorsque les gens examinent les projets d'infrastructure de l'IA, ils se concentrent sur les modèles. Ensembles de données, meilleurs designs, plus de détails. Je pense qu'un des aspects les plus négligés de la fiabilité de l'IA est la conception des incitations. C'est pourquoi je trouve la configuration économique de Mira intéressante. Elle ne tente pas seulement d'améliorer les résultats de l'IA au niveau du modèle. Elle construit un système où la pression économique pousse les participants à vérifier honnêtement. Dans la crypto, les incitations sont tout. La faiblesse cachée de la vérification de l'IA Si vous demandez aux modèles d'IA de vérifier une affirmation, cela semble fort. Mais il y a un problème : les tâches de vérification deviennent souvent des questions structurées avec des réponses limitées. Dans certains cas, la devinette aléatoire devient possible.
Plus j'en apprends sur l'intelligence artificielle, plus je pense que le grand problème n'est pas à quel point elle est intelligente. C'est de savoir si nous pouvons lui faire confiance.
@Mira - Trust Layer of AI traite de cette question d'une manière que j'aime vraiment. En créant un autre énorme modèle et en espérant qu'il fasse moins d'erreurs, il construit un système où de nombreuses personnes vérifient le travail des IA. Voici comment cela fonctionne :
* Chaque réponse est décomposée en affirmations
* De nombreux modèles différents vérifient ces affirmations
* Les vérificateurs sont motivés à être honnêtes car ils ont quelque chose à perdre
Ce que je trouve intéressant, c'est que ce système rend rationnel pour les nœuds d'être honnêtes. Ils doivent mettre quelque chose de valeur en jeu, donc cela n'a pas de sens pour eux de tricher. Cela semble être une prochaine étape pour la cryptomonnaie. Pas seulement pour garder les transactions en sécurité, mais pour garder l'IA honnête.
Mira : Pourquoi je crois que la vérification décentralisée est la couche pour l'IA
Au cours de l'année dernière, j'ai beaucoup réfléchi à un problème central en IA : nous ne pouvons toujours pas faire confiance à l'IA de manière complète. Je pense à ce problème tous les jours. Les grands modèles de langage sont très puissants. Ils peuvent écrire du code, analyser des données, rédiger des arguments et expliquer des sujets complexes en quelques secondes. En même temps, ils peuvent produire des informations incorrectes avec confiance. Je vois cela comme un problème. Les hallucinations, les biais et les incohérences ne sont pas des cas marginaux. Ce sont des limitations des modèles probabilistes. C'est le fossé qui a retenu mon attention lorsque j'ai étudié Mira.
Je viens de découvrir le @Mira - Trust Layer of AI . C'est vraiment incroyable. Mira ne se contente pas de prendre ce que dit une intelligence artificielle. Elle décompose ce que dit l'intelligence artificielle en parties et fait vérifier chaque partie par de nombreux modèles d'intelligence artificielle différents. Nous ne recevons une réponse que lorsque nous savons qu'elle est correcte, lorsque tous ces différents modèles sont d'accord. Cela rend beaucoup moins probable que la réponse soit incorrecte ou biaisée.
Les personnes qui vérifient les réponses doivent également effectuer un certain travail pour s'assurer qu'elles sont correctes. Elles doivent mettre en jeu certains de leurs jetons et faire des vérifications pour s'assurer que tout va bien. Si elles font un travail, elles sont payées.
Je pense que Mira est une idée parce qu'elle utilise beaucoup de modèles d'intelligence artificielle différents et une nouvelle façon d'utiliser l'argent pour s'assurer que les réponses sont correctes. Cela me fait penser que nous pouvons enfin faire confiance à ce que dit l'intelligence artificielle.
Je suis vraiment excité par Mira parce qu'elle utilise l'intelligence et une nouvelle façon d'utiliser l'argent pour nous dire ce qui est vrai. C'est une manière de s'assurer que nous obtenons les bonnes réponses. Mira et sa façon d'utiliser l'intelligence et l'argent pour obtenir la vérité est quelque chose que je trouve vraiment cool. #Mira $MIRA
Ce que j'aime vraiment à propos de @Fabric Foundation , ce n'est pas les robots qu'ils ont. C'est la façon dont ils veulent gagner de l'argent avec ça. Fabric ne veut pas qu'une seule entreprise contrôle toutes les machines. Ils veulent créer un réseau où les gens peuvent aider avec des compétences, des vérifications d'informations pour s'assurer que les choses sont correctes ou du matériel. De cette façon, les gens peuvent faire partie de la manière dont le système grandit.
Je pense que c'est une idée que les robots peuvent avoir des pièces qui peuvent être ajoutées ou retirées comme des blocs. Ces pièces peuvent être comme des capacités que le robot peut apprendre. J'aime que ces capacités puissent être travaillées ouvertement afin que tout le monde puisse voir ce qui se passe. Il est également bon que Fabric veuille s'assurer que le travail que font les robots est réel et que les gens sont responsables de ce qu'ils font. Si les robots doivent faire partie de nos vies, je veux qu'ils soient fabriqués d'une manière qui soit ouverte et honnête, comme ce que Fabric fait avec la communauté pour aider.
Je suis super excité à propos du @Fabric Foundation . Il pense que les robots devraient partager rapidement leurs connaissances afin que tout nouveau robot puisse apprendre de milliers d'autres.
Ce que j'aime, c'est qu'ils veulent construire cette technologie de manière responsable. Ils veulent s'assurer que les robots suivent des valeurs à mesure qu'ils apprennent et s'améliorent.
L'idée d'utiliser des jetons pour aider les gens à travailler ensemble et à contribuer semble intelligente. Cela ne ressemble pas à une mode passagère.
Cela ressemble à un avenir où la technologie et les gens travaillent ensemble de manière équitable.
Lire à ce sujet me rend en fait plein d'espoir et inspiré.
Le Fabric Protocol semble être quelque chose qui peut vraiment faire une différence.
Il s'agit de robots et de personnes travaillant ensemble.
L'accent est mis sur le fait de s'assurer que les robots sont alignés avec ce que les gens pensent être juste.
L'avenir de la robotique ne devrait pas appartenir à un monopole
On dirait que nous avons cligné des yeux et soudainement des robots sont sortis de la science-fiction pour entrer dans notre réalité quotidienne. Avec des performances de l'IA augmentant rapidement et de grands modèles de langage contrôlant désormais activement des robots à travers du code open-source, la ligne entre les données numériques et le monde physique s'estompe. Un avenir où nous vivons et travaillons aux côtés de machines hautement capables se précise rapidement. Mais alors que je regarde cela se dérouler, une préoccupation pressante ombre l'excitation : cette automatisation physique et numérique menace de concentrer un pouvoir et une richesse sans précédent entre les mains de quelques grandes entreprises. Nous nous tenons au bord d'une économie où le "gagnant prend tout", où l'infrastructure robotique de demain pourrait facilement devenir un écosystème fermé contrôlé par une seule entité.
Nous attendons tous que l'intelligence artificielle s'occupe des choses dans le droit et les soins de santé, mais les hallucinations de l'intelligence artificielle retiennent encore l'intelligence artificielle. Le Mira souligne une vérité : un seul modèle d'intelligence artificielle aura toujours une limite. Vous ne pouvez pas avoir de précision sans introduire de biais dans le système d'intelligence artificielle. L'approche de Mira est différente. Ils n'essaient pas de construire une intelligence artificielle mais plutôt un réseau décentralisé pour vérifier l'intelligence artificielle. Il s'agit de dépasser le point où l'intelligence artificielle est juste suffisante, pour atteindre le point où l'intelligence artificielle est prouvée fiable. @Mira - Trust Layer of AI #Mira $MIRA
Repensons la fiabilité de l'IA en tant que problème de consensus
J'ai lu le livre blanc de Miras et une chose reste en tête, le livre blanc de Mira et le problème des hallucinations et des biais en IA. Le livre blanc de Mira dit que ce ne sont pas seulement des problèmes avec un modèle ou ses données. Ce sont des problèmes qui nécessitent une solution impliquant l'ensemble du système. Chaque grand modèle de langage a un problème lorsqu'il est en cours d'entraînement. Si vous le rendez plus précis, il aura un biais systémique. Si vous essayez de réduire le biais, il sera moins précis. Le livre blanc de Miras m'a aidé à comprendre cela. Il dit que les hallucinations se produisent lorsqu'un modèle n'est pas précis et donne des réponses qui ne sont pas cohérentes ou qui sont trop confiantes. D'autre part, le biais est lorsqu'un modèle n'est pas précis et donne des réponses qui ne sont pas vraies.
Super excité par l'avenir de l'IA et @Mira - Trust Layer of AI ! Leur système de vérification décentralisé est un véritable bouleversement, halluciner l'IA nucléaire dans la tête. Imaginez le monde dans lequel toutes les sorties de l'IA sont valables. C'est ce que $MIRA construit. Trouvez le moteur pour une IA plus responsable !
Décodage de la transformation de contenu de Mira : comment les données brutes deviennent une vérité vérifiée
Il est tout à fait essentiel dans le monde rapide de l'intelligence artificielle de pouvoir compter sur les résultats que l'IA nous livre. L'IA composera un contenu créatif et attrayant, mais elle produira également des hallucinations et démontrera des préjugés. Mira Network fait cela en appliquant un nouveau processus de transformation de contenu qui convertit les sorties floues de l'IA en informations vérifiables. Le problème de la fiabilité de l'IA traditionnelle. Les grands modèles de langage (LLMs), qui sont des types de modèles d'IA, sont basés sur la prédiction du mot ou de la séquence les plus probables à suivre. En raison de cela, leurs productions peuvent être imprécises sur le plan factuel ou sans rapport avec la réalité. Cette inférence rend la vérification directe des réponses difficile et nécessite généralement une assistance humaine, ce qui compromet les efforts d'une IA complètement autonome. Mira Network modifie notre réflexion sur les résultats de l'IA. Au lieu de considérer tout ce que l'IA propose comme vérité absolue, Mira l'examine avec une poignée de niveaux de vérification qui commencent par diviser intelligemment le matériel en unités plus petites.
Identité de Robot Onchain : Ce que les robots exigent de Web3.
Nous avons exploré l'écosystème de la Fabric Foundation en examinant sa mission et l'importance du token $ROBO . Nous allons discuter d'un autre concept innovant qui définira l'avenir des machines autonomes, l'Identité de Robot Onchain ou DID.
Le dilemme de l'Identité de Robot dans un monde Web2.
Les machines intelligentes ont des besoins particuliers qui ne sont pas reconnus par les anciens systèmes. Les robots ne peuvent pas ouvrir de comptes bancaires, obtenir des passeports et être employés dans des réglementations conçues pour être exécutées par un humain. Un système d'identité sûr, établi et partagé est nécessaire alors que les robots commencent à être plus autonomes et à participer à des activités économiques.
Solution pour la Fabric Foundation, Identifiants Décentralisés (DID).
La Fabric Foundation résout cela en fournissant aux robots des Identités Onchain (DIDs). De tels identifiants sont non transférables, permanents pour le robot et vérifiables sur la blockchain. Ils permettent aux robots
Démontrer qu'ils sont réels et crédibles dans n'importe quel accord.
Stocker et transacter avec des portefeuilles Web3. Créer un compte non-jugeant des choses qu'ils ont accomplies et de leur efficacité.
Ceci se fait par l'utilisation de différents services et contrats intelligents dans les réseaux.
Sous ce système, chaque robot dans le réseau Fabric est audité publiquement avec un enregistrement non modifiable, ce qui sert à garder tout le monde dans le droit chemin, ainsi qu'à prévenir les comportements indésirables.
Identité Onchain Comment l'Identité Onchain permet des opérations indépendantes.
Un robot peut facilement effectuer un certain nombre de fonctions en utilisant une identité onchain :
1. Recevoir une rémunération : Revenus de l'accomplissement de travaux ou de la fourniture de services de $ROBO. 2. Acheter son portefeuille Web3 : Payer son énergie, ses données ou sa maintenance. 3. Soutien : Utiliser son historique et son engagement pour aider à prendre des décisions sur le réseau. 4. Travailler ensemble - Être explicitement digne de confiance envers les collègues et les humains.