Binance Square

CoachOfficial

Exploring the Future of Crypto | Deep Dives | Market Stories | DYOR 📈 | X: @CoachOfficials 🔷
Ouvert au trading
Trade régulièrement
4.4 an(s)
6.3K+ Suivis
12.3K+ Abonnés
5.0K+ J’aime
39 Partagé(s)
Publications
Portefeuille
·
--
@FabricFND Le protocole Fabric ressemble à une tentative de ralentir un peu la conversation. Au lieu de considérer les robots comme des machines isolées, il les présente comme faisant partie d'un système public plus large. Cela change l'ambiance de l'ensemble. Vous arrêtez de vous concentrer uniquement sur ce qu'un robot peut faire, et commencez à vous intéresser à la façon dont il est construit, qui aide à le façonner, et comment ces choix restent visibles au fil du temps. Il est soutenu par la fondation à but non lucratif Fabric Foundation, et ce détail compte plus qu'il n'y paraît au premier abord. Vous pouvez généralement dire quand un réseau est principalement conçu autour de la propriété ou du contrôle. Ici, la structure tend davantage vers une supervision partagée. Pas une supervision parfaite, probablement, mais quelque chose de plus ouvert que la boucle fermée habituelle. C'est là que les choses deviennent intéressantes. Le protocole Fabric réunit des données, des calculs et une réglementation sur un registre public, ce qui signifie que le côté technique et le côté social ne sont pas séparés. La machine agit, mais le compte rendu de cette action compte aussi. Les règles comptent aussi. Les personnes qui l'entourent comptent aussi. L'informatique vérifiable s'intègre dans cela de manière assez simple. Il devient évident après un certain temps que si les robots doivent travailler en étroite collaboration avec les humains, la confiance ne peut pas reposer uniquement sur des affirmations. Il doit y avoir un moyen de vérifier ce qui s'est passé, et peut-être tout aussi important, qui a eu une influence sur cela. Ainsi, la question passe de la manière dont nous construisons des robots plus intelligents à la manière dont nous construisons des conditions autour d'eux qui restent inspectables, ajustables et partagées. Le protocole Fabric semble se tenir tranquillement dans cette question, et y rester. $ROBO #ROBO
@Fabric Foundation Le protocole Fabric ressemble à une tentative de ralentir un peu la conversation. Au lieu de considérer les robots comme des machines isolées, il les présente comme faisant partie d'un système public plus large. Cela change l'ambiance de l'ensemble. Vous arrêtez de vous concentrer uniquement sur ce qu'un robot peut faire, et commencez à vous intéresser à la façon dont il est construit, qui aide à le façonner, et comment ces choix restent visibles au fil du temps.

Il est soutenu par la fondation à but non lucratif Fabric Foundation, et ce détail compte plus qu'il n'y paraît au premier abord. Vous pouvez généralement dire quand un réseau est principalement conçu autour de la propriété ou du contrôle. Ici, la structure tend davantage vers une supervision partagée. Pas une supervision parfaite, probablement, mais quelque chose de plus ouvert que la boucle fermée habituelle.

C'est là que les choses deviennent intéressantes. Le protocole Fabric réunit des données, des calculs et une réglementation sur un registre public, ce qui signifie que le côté technique et le côté social ne sont pas séparés. La machine agit, mais le compte rendu de cette action compte aussi. Les règles comptent aussi. Les personnes qui l'entourent comptent aussi.

L'informatique vérifiable s'intègre dans cela de manière assez simple. Il devient évident après un certain temps que si les robots doivent travailler en étroite collaboration avec les humains, la confiance ne peut pas reposer uniquement sur des affirmations. Il doit y avoir un moyen de vérifier ce qui s'est passé, et peut-être tout aussi important, qui a eu une influence sur cela.

Ainsi, la question passe de la manière dont nous construisons des robots plus intelligents à la manière dont nous construisons des conditions autour d'eux qui restent inspectables, ajustables et partagées. Le protocole Fabric semble se tenir tranquillement dans cette question, et y rester.

$ROBO #ROBO
Je continue à penser à la façon dont l'IA fait sentir les gens avant de les faire penser.Pas de manière dramatique. Juste de la manière petite et quotidienne. Vous tapez une question. Elle répond rapidement. La phrase revient propre, calme, complète. Et pendant une seconde, votre cerveau traite ce calme comme une preuve. Comme si le système devait savoir de quoi il parle, parce qu'il ne semble pas incertain. Alors vous regardez de plus près et trouvez une fissure. Peut-être que c’est une date qui n'existe pas. Une statistique qui semble trop soignée. Une citation que personne n'a jamais dite. Ou juste un subtil changement de cadre qui fait paraître un côté plus raisonnable que l'autre. Vous pouvez généralement dire quand la fissure compte parce qu'elle change la façon dont vous lisez l'ensemble. Vous réalisez que vous ne lisiez pas seulement des informations. Vous acceptiez la confiance.

Je continue à penser à la façon dont l'IA fait sentir les gens avant de les faire penser.

Pas de manière dramatique. Juste de la manière petite et quotidienne. Vous tapez une question. Elle répond rapidement. La phrase revient propre, calme, complète. Et pendant une seconde, votre cerveau traite ce calme comme une preuve. Comme si le système devait savoir de quoi il parle, parce qu'il ne semble pas incertain.
Alors vous regardez de plus près et trouvez une fissure.
Peut-être que c’est une date qui n'existe pas. Une statistique qui semble trop soignée. Une citation que personne n'a jamais dite. Ou juste un subtil changement de cadre qui fait paraître un côté plus raisonnable que l'autre. Vous pouvez généralement dire quand la fissure compte parce qu'elle change la façon dont vous lisez l'ensemble. Vous réalisez que vous ne lisiez pas seulement des informations. Vous acceptiez la confiance.
Je vais être honnête — je continue à penser à la façon dont les robots deviennent « normaux ».Pas normal comme ennuyeux. Normal comme… accepté. Comme si vous cessiez de les remarquer dans le coin de la pièce. Vous cessez de suivre chaque petit mouvement du regard. Vous avez confiance que si quelque chose d'étrange se produit, quelqu'un peut l'expliquer, et l'explication ne semblera pas être une supposition. Ce genre de normal est difficile à gagner. Et je ne pense pas que cela vienne du fait que les robots sont plus capables. La capacité compte, c'est sûr. Mais vous pouvez avoir un système très capable qui semble toujours dérangeant parce qu'il est opaque. Vous ne pouvez pas dire ce qu'il fait. Vous ne pouvez pas dire pourquoi il a fait quelque chose. Vous ne pouvez pas dire ce qui a changé entre la semaine dernière et cette semaine.

Je vais être honnête — je continue à penser à la façon dont les robots deviennent « normaux ».

Pas normal comme ennuyeux. Normal comme… accepté. Comme si vous cessiez de les remarquer dans le coin de la pièce. Vous cessez de suivre chaque petit mouvement du regard. Vous avez confiance que si quelque chose d'étrange se produit, quelqu'un peut l'expliquer, et l'explication ne semblera pas être une supposition.
Ce genre de normal est difficile à gagner.
Et je ne pense pas que cela vienne du fait que les robots sont plus capables. La capacité compte, c'est sûr. Mais vous pouvez avoir un système très capable qui semble toujours dérangeant parce qu'il est opaque. Vous ne pouvez pas dire ce qu'il fait. Vous ne pouvez pas dire pourquoi il a fait quelque chose. Vous ne pouvez pas dire ce qui a changé entre la semaine dernière et cette semaine.
Je considérais « la vérification pour l'IA » comme une sorte de distraction. Par exemple, si un modèle peut halluciner, pourquoi prétendre que l'on peut l'ignorer ? Mais on peut généralement dire quand quelque chose a de l'importance car le même échec se répète, même dans des équipes très normales. Quelqu'un pose une question au modèle. Le modèle répond avec confiance. La réponse est utilisée, non pas parce qu'elle est prouvée, mais parce qu'elle est pratique. C'est là que les choses deviennent intéressantes. L'IA ne fait pas que des erreurs. Elle fait des erreurs qui semblent soignées. Et les erreurs soignées voyagent loin. Elles sont collées dans des documents, des tickets, des rapports, même des politiques. Plus tard, lorsque quelque chose est contesté, la question change de « la réponse était-elle bonne ? » à « sur quoi cela était-il basé, et qui l'a vérifié ? » Dans le domaine juridique, la conformité, la finance ou la santé, cette deuxième question est celle qui compte. Les gens ne veulent pas seulement le résultat. Ils veulent une trace qui tienne lorsque un client se plaint, qu'un auditeur se présente ou qu'un régulateur demande une justification. Sans cette trace, l'IA devient un générateur de responsabilités, même si elle est utile la plupart du temps. La plupart des corrections semblent maladroites en pratique. L'examen humain devient une validation précipitée. Les règles de prompt deviennent des superstitions. Les validateurs centraux créent juste un autre goulot d'étranglement de confiance, et les goulots d'étranglement deviennent désordonnés lorsque les incitations changent. Ainsi, @mira_network l'approche a du sens en tant qu'infrastructure. Divisez la sortie en revendications, validez-les, laissez un enregistrement durable. Si c'est rapide et bon marché, les équipes l'utiliseront. Si c'est lent, coûteux ou facile à manipuler, elles contourneront discrètement cela et continueront à dépendre de la confiance informelle, comme elles le font déjà. #Mira $MIRA
Je considérais « la vérification pour l'IA » comme une sorte de distraction. Par exemple, si un modèle peut halluciner, pourquoi prétendre que l'on peut l'ignorer ? Mais on peut généralement dire quand quelque chose a de l'importance car le même échec se répète, même dans des équipes très normales. Quelqu'un pose une question au modèle. Le modèle répond avec confiance. La réponse est utilisée, non pas parce qu'elle est prouvée, mais parce qu'elle est pratique.

C'est là que les choses deviennent intéressantes. L'IA ne fait pas que des erreurs. Elle fait des erreurs qui semblent soignées. Et les erreurs soignées voyagent loin. Elles sont collées dans des documents, des tickets, des rapports, même des politiques. Plus tard, lorsque quelque chose est contesté, la question change de « la réponse était-elle bonne ? » à « sur quoi cela était-il basé, et qui l'a vérifié ? »

Dans le domaine juridique, la conformité, la finance ou la santé, cette deuxième question est celle qui compte. Les gens ne veulent pas seulement le résultat. Ils veulent une trace qui tienne lorsque un client se plaint, qu'un auditeur se présente ou qu'un régulateur demande une justification. Sans cette trace, l'IA devient un générateur de responsabilités, même si elle est utile la plupart du temps.

La plupart des corrections semblent maladroites en pratique. L'examen humain devient une validation précipitée. Les règles de prompt deviennent des superstitions. Les validateurs centraux créent juste un autre goulot d'étranglement de confiance, et les goulots d'étranglement deviennent désordonnés lorsque les incitations changent.

Ainsi, @Mira - Trust Layer of AI l'approche a du sens en tant qu'infrastructure. Divisez la sortie en revendications, validez-les, laissez un enregistrement durable. Si c'est rapide et bon marché, les équipes l'utiliseront. Si c'est lent, coûteux ou facile à manipuler, elles contourneront discrètement cela et continueront à dépendre de la confiance informelle, comme elles le font déjà.

#Mira $MIRA
Je vais être honnête — je continue à remarquer que plus les gens parlent de « robots à usage général »,Plus la conversation dérive vers les nuages. Grandes possibilités. Grandes visions. Grandes temporalités. Et puis vous regardez une véritable équipe de robots pendant une semaine et la réalité est… plus calme. Plus ordinaire. Des gens se disputant à propos du bruit des capteurs. Quelqu'un essayant de reproduire un bogue qui ne se produit que dans un étage d'un bâtiment. Quelqu'un demandant, encore une fois, quelle version est en production. Quelqu'un d'autre disant : « Je pense que c'est la dernière », et personne ne se sent entièrement satisfait de cette réponse. On peut généralement dire qu'un système entre dans le monde réel lorsque « Je pense » commence à apparaître partout.

Je vais être honnête — je continue à remarquer que plus les gens parlent de « robots à usage général »,

Plus la conversation dérive vers les nuages.
Grandes possibilités. Grandes visions. Grandes temporalités.
Et puis vous regardez une véritable équipe de robots pendant une semaine et la réalité est… plus calme. Plus ordinaire. Des gens se disputant à propos du bruit des capteurs. Quelqu'un essayant de reproduire un bogue qui ne se produit que dans un étage d'un bâtiment. Quelqu'un demandant, encore une fois, quelle version est en production. Quelqu'un d'autre disant : « Je pense que c'est la dernière », et personne ne se sent entièrement satisfait de cette réponse.
On peut généralement dire qu'un système entre dans le monde réel lorsque « Je pense » commence à apparaître partout.
Au début, "la vérification pour l'IA" semblait être une couche supplémentaire ajoutée parce que personne ne veut admettre que le résultat est incertain. Mais on peut généralement dire quand un problème est réel parce qu'il continue à apparaître de la même manière. Un modèle donne une réponse claire. Quelqu'un lui fait confiance parce qu'il se lit bien. Puis, plus tard, la question inconfortable arrive : sur quoi cela était-il basé ? C'est là que les choses deviennent intéressantes. Dans une utilisation informelle, une mauvaise réponse n'est que du bruit. Dans les flux de travail réels, cela devient un enregistrement. Un résumé est classé. Une décision de soutien est prise. Une note de conformité est attachée à un dossier. Et quand la décision est contestée, la question change de "était-ce utile ?" à "pouvons-nous la défendre ?" Pas défendre le modèle, défendre le processus. La plupart des "solutions" ne correspondent pas tout à fait. L'examen humain se transforme en approbation hâtive parce que le temps est compté. De meilleures invites deviennent des légendes d'équipe. Les validateurs centralisés créent simplement une autre partie à laquelle vous êtes forcé de faire confiance, et la confiance est exactement ce qui est mis à l'épreuve lorsque l'argent, la réglementation ou des différends se présentent. Donc je peux comprendre pourquoi @mira_network vise la vérification comme infrastructure. Pas pour rendre l'IA parfaite, mais pour faire en sorte que les résultats ressemblent davantage à quelque chose que les institutions savent déjà comment gérer : des réclamations qui peuvent être vérifiées, contestées et enregistrées d'une manière qui tient le coup plus tard. Si c'est assez rapide et bon marché, les équipes dans des domaines réglementés ou à forte responsabilité l'essayeront. Si cela devient lent, coûteux ou facile à manipuler, les gens reviendront discrètement à une confiance informelle et à un nettoyage par la suite, ce qui se produit dans la plupart des systèmes de toute façon. #Mira $MIRA
Au début, "la vérification pour l'IA" semblait être une couche supplémentaire ajoutée parce que personne ne veut admettre que le résultat est incertain. Mais on peut généralement dire quand un problème est réel parce qu'il continue à apparaître de la même manière. Un modèle donne une réponse claire. Quelqu'un lui fait confiance parce qu'il se lit bien. Puis, plus tard, la question inconfortable arrive : sur quoi cela était-il basé ?

C'est là que les choses deviennent intéressantes. Dans une utilisation informelle, une mauvaise réponse n'est que du bruit. Dans les flux de travail réels, cela devient un enregistrement. Un résumé est classé. Une décision de soutien est prise. Une note de conformité est attachée à un dossier. Et quand la décision est contestée, la question change de "était-ce utile ?" à "pouvons-nous la défendre ?" Pas défendre le modèle, défendre le processus.

La plupart des "solutions" ne correspondent pas tout à fait. L'examen humain se transforme en approbation hâtive parce que le temps est compté. De meilleures invites deviennent des légendes d'équipe. Les validateurs centralisés créent simplement une autre partie à laquelle vous êtes forcé de faire confiance, et la confiance est exactement ce qui est mis à l'épreuve lorsque l'argent, la réglementation ou des différends se présentent.

Donc je peux comprendre pourquoi @Mira - Trust Layer of AI vise la vérification comme infrastructure. Pas pour rendre l'IA parfaite, mais pour faire en sorte que les résultats ressemblent davantage à quelque chose que les institutions savent déjà comment gérer : des réclamations qui peuvent être vérifiées, contestées et enregistrées d'une manière qui tient le coup plus tard.

Si c'est assez rapide et bon marché, les équipes dans des domaines réglementés ou à forte responsabilité l'essayeront. Si cela devient lent, coûteux ou facile à manipuler, les gens reviendront discrètement à une confiance informelle et à un nettoyage par la suite, ce qui se produit dans la plupart des systèmes de toute façon.

#Mira $MIRA
Je n'ai pas vraiment compris pourquoi le @FabricFND Protocol était important jusqu'à ce que je pense à la façon dont la plupart des organisations gèrent la responsabilité. C'est informel. C'est un mélange de documents politiques, de connaissances tribales et de ce que le dernier incident a appris aux gens à craindre. Cela fonctionne, la plupart du temps, parce que les frontières sont claires. Une entreprise. Un ensemble d'outils. Un endroit où pointer quand quelque chose ne va pas. Puis les robots et les agents commencent à opérer au-delà de ces frontières. C'est là que les choses deviennent intéressantes. Un robot peut être sur votre étage, mais les instructions viennent d'ailleurs. Une mise à jour de modèle provient d'un fournisseur. Une décision de routage dépend des données d'un partenaire. Et la question passe de "avons-nous construit cela correctement ?" à "qui avait le droit de changer cela, et comment le montrer à quelqu'un qui ne nous fait pas confiance ?" Vous pouvez généralement dire quand l'ancienne approche est en train de se fissurer, car les gens commencent à exporter des preuves. Captures d'écran. Chaînes d'e-mails. Liens de tickets. Il devient évident après un certain temps que les journaux internes sont une couverture de confort. Ce ne sont pas une vérité partagée. Ils ne règlent pas les différends. Ils vous aident juste à argumenter plus rapidement. Alors j'ai lu Fabric Protocol comme une tentative de rendre l'automatisation inter-organisationnelle moins dépendante de la bonne volonté. Un endroit pour ancrer ce qui a été délégué, ce qui a été calculé, et quelles règles étaient censées s'appliquer, d'une manière que différentes parties peuvent vérifier sans mendier l'accès. Pas un remède contre les mauvais comportements. Pas un remplacement pour les contrats. Juste une infrastructure qui pourrait rendre les parties ennuyeuses—preuve, responsabilité, et coordination—moins fragiles, ce qui est généralement là où les systèmes échouent réellement. #ROBO $ROBO
Je n'ai pas vraiment compris pourquoi le @Fabric Foundation Protocol était important jusqu'à ce que je pense à la façon dont la plupart des organisations gèrent la responsabilité. C'est informel. C'est un mélange de documents politiques, de connaissances tribales et de ce que le dernier incident a appris aux gens à craindre. Cela fonctionne, la plupart du temps, parce que les frontières sont claires. Une entreprise. Un ensemble d'outils. Un endroit où pointer quand quelque chose ne va pas.

Puis les robots et les agents commencent à opérer au-delà de ces frontières. C'est là que les choses deviennent intéressantes. Un robot peut être sur votre étage, mais les instructions viennent d'ailleurs. Une mise à jour de modèle provient d'un fournisseur. Une décision de routage dépend des données d'un partenaire. Et la question passe de "avons-nous construit cela correctement ?" à "qui avait le droit de changer cela, et comment le montrer à quelqu'un qui ne nous fait pas confiance ?"

Vous pouvez généralement dire quand l'ancienne approche est en train de se fissurer, car les gens commencent à exporter des preuves. Captures d'écran. Chaînes d'e-mails. Liens de tickets. Il devient évident après un certain temps que les journaux internes sont une couverture de confort. Ce ne sont pas une vérité partagée. Ils ne règlent pas les différends. Ils vous aident juste à argumenter plus rapidement.

Alors j'ai lu Fabric Protocol comme une tentative de rendre l'automatisation inter-organisationnelle moins dépendante de la bonne volonté. Un endroit pour ancrer ce qui a été délégué, ce qui a été calculé, et quelles règles étaient censées s'appliquer, d'une manière que différentes parties peuvent vérifier sans mendier l'accès. Pas un remède contre les mauvais comportements. Pas un remplacement pour les contrats. Juste une infrastructure qui pourrait rendre les parties ennuyeuses—preuve, responsabilité, et coordination—moins fragiles, ce qui est généralement là où les systèmes échouent réellement.

#ROBO $ROBO
J'ai remarqué que les gens ne s'inquiètent pas vraiment de l'IA lorsqu'elle fait des erreurs évidentes.Les erreurs évidentes sont presque réconfortantes, d'une manière étrange. Vous les attrapez. Vous les corrigez. Vous passez à autre chose. L'inquiétude se manifeste lorsque l'erreur est silencieuse. Lorsque la réponse semble soignée. Lorsque le ton est stable. Lorsqu'elle vous donne un paragraphe clair qui semble provenir de quelque part de solide, même si ce n'est pas le cas. Vous pouvez généralement dire que c'est le moment où la confiance commence à vaciller, car vous réalisez que vous ne lisiez pas juste du texte. Vous empruntiez de la confiance. C'est le problème de fiabilité @mira_network Network essaie de résoudre.

J'ai remarqué que les gens ne s'inquiètent pas vraiment de l'IA lorsqu'elle fait des erreurs évidentes.

Les erreurs évidentes sont presque réconfortantes, d'une manière étrange. Vous les attrapez. Vous les corrigez. Vous passez à autre chose.
L'inquiétude se manifeste lorsque l'erreur est silencieuse.
Lorsque la réponse semble soignée. Lorsque le ton est stable. Lorsqu'elle vous donne un paragraphe clair qui semble provenir de quelque part de solide, même si ce n'est pas le cas. Vous pouvez généralement dire que c'est le moment où la confiance commence à vaciller, car vous réalisez que vous ne lisiez pas juste du texte. Vous empruntiez de la confiance.
C'est le problème de fiabilité @Mira - Trust Layer of AI Network essaie de résoudre.
Je n'aimais pas tout ce qui était décrit comme une "couche de vérification pour l'IA." Cela semblait être un moyen élégant de dire : "nous ne faisons pas confiance au modèle non plus." Mais on peut généralement dire quand un problème est réel parce qu'il apparaît en dehors des démos. Il se manifeste dans des tickets, des audits, des litiges et la panique silencieuse après une mauvaise décision. L'IA n'est pas seulement peu fiable. Elle est *doucement* peu fiable. Un fait hallucinatoire ne ressemble pas à une erreur. Cela ressemble à une phrase terminée. Et une fois qu'une phrase terminée entre dans un flux de travail, les gens la traitent comme si elle avait passé un contrôle invisible. C'est là que les choses deviennent intéressantes, car l'échec n'est pas immédiat. L'échec apparaît plus tard, quand quelqu'un demande le fil de l'argumentation. Dans des contextes sérieux, la question change de "l'IA nous a-t-elle aidés à aller plus vite ?" à "sur quoi nous sommes-nous exactement fiés, et pouvons-nous le prouver ?" Les équipes de conformité, les régulateurs et même les clients ne se soucient pas de la confiance dans le modèle. Ils se soucient d'un processus défendable. Ce qui a été revendiqué. Ce qui a été vérifié. Qui est responsable. La plupart des solutions semblent maladroites en pratique. L'examen humain devient une case à cocher sous pression. De meilleures incitations deviennent un savoir tribal. Les validateurs centralisés deviennent un autre goulet d'étranglement de confiance, et les goulets d'étranglement de confiance deviennent coûteux au moment où quelque chose se casse. Donc @mira_network approche a du sens en tant qu'infrastructure : transformer les résultats en revendications qui peuvent être vérifiées et enregistrées d'une manière qui résiste à l'examen. Si cela réduit les coûts de litige sans ralentir tout, cela sera utilisé. Si ce n'est pas le cas, les gens continueront à traiter l'IA comme un brouillon et à réparer la réalité après, ce que nous faisons déjà. #Mira $MIRA
Je n'aimais pas tout ce qui était décrit comme une "couche de vérification pour l'IA." Cela semblait être un moyen élégant de dire : "nous ne faisons pas confiance au modèle non plus." Mais on peut généralement dire quand un problème est réel parce qu'il apparaît en dehors des démos. Il se manifeste dans des tickets, des audits, des litiges et la panique silencieuse après une mauvaise décision.

L'IA n'est pas seulement peu fiable. Elle est *doucement* peu fiable. Un fait hallucinatoire ne ressemble pas à une erreur. Cela ressemble à une phrase terminée. Et une fois qu'une phrase terminée entre dans un flux de travail, les gens la traitent comme si elle avait passé un contrôle invisible. C'est là que les choses deviennent intéressantes, car l'échec n'est pas immédiat. L'échec apparaît plus tard, quand quelqu'un demande le fil de l'argumentation.

Dans des contextes sérieux, la question change de "l'IA nous a-t-elle aidés à aller plus vite ?" à "sur quoi nous sommes-nous exactement fiés, et pouvons-nous le prouver ?" Les équipes de conformité, les régulateurs et même les clients ne se soucient pas de la confiance dans le modèle. Ils se soucient d'un processus défendable. Ce qui a été revendiqué. Ce qui a été vérifié. Qui est responsable.

La plupart des solutions semblent maladroites en pratique. L'examen humain devient une case à cocher sous pression. De meilleures incitations deviennent un savoir tribal. Les validateurs centralisés deviennent un autre goulet d'étranglement de confiance, et les goulets d'étranglement de confiance deviennent coûteux au moment où quelque chose se casse.

Donc @Mira - Trust Layer of AI approche a du sens en tant qu'infrastructure : transformer les résultats en revendications qui peuvent être vérifiées et enregistrées d'une manière qui résiste à l'examen. Si cela réduit les coûts de litige sans ralentir tout, cela sera utilisé. Si ce n'est pas le cas, les gens continueront à traiter l'IA comme un brouillon et à réparer la réalité après, ce que nous faisons déjà.

#Mira $MIRA
DERNIÈRE NOUVELLE : BitMine de Tom Lee a ajouté 60 976 ETH supplémentaires, d'une valeur d'environ 122 millions de dollars.C'est un achat sérieux. BitMine a déclaré que ses avoirs totaux ont maintenant atteint environ 4,53 millions d'ETH, avec plus de 3 millions d'ETH déjà mis en jeu, et des avoirs totaux en crypto et en espèces d'environ 10,3 milliards de dollars. L'histoire plus grande ici n'est pas seulement la taille de cet achat récent. C'est la cohérence. BitMine continue de traiter l'Ethereum comme un actif de trésorerie, et non comme un commerce à court terme. Chaque nouvel achat renforce le même message : c'est une entreprise qui parie sur le long terme sur l'ETH, le rendement de mise, et la tendance plus large à la tokenisation. Cela se démarque parce que la plupart des histoires de trésorerie crypto des entreprises publiques sont encore centrées autour du Bitcoin. BitMine aide à construire le cas selon lequel l'Ethereum peut également occuper le centre d'une stratégie de bilan d'entreprise.

DERNIÈRE NOUVELLE : BitMine de Tom Lee a ajouté 60 976 ETH supplémentaires, d'une valeur d'environ 122 millions de dollars.

C'est un achat sérieux.
BitMine a déclaré que ses avoirs totaux ont maintenant atteint environ 4,53 millions d'ETH, avec plus de 3 millions d'ETH déjà mis en jeu, et des avoirs totaux en crypto et en espèces d'environ 10,3 milliards de dollars.

L'histoire plus grande ici n'est pas seulement la taille de cet achat récent. C'est la cohérence.
BitMine continue de traiter l'Ethereum comme un actif de trésorerie, et non comme un commerce à court terme. Chaque nouvel achat renforce le même message : c'est une entreprise qui parie sur le long terme sur l'ETH, le rendement de mise, et la tendance plus large à la tokenisation. Cela se démarque parce que la plupart des histoires de trésorerie crypto des entreprises publiques sont encore centrées autour du Bitcoin. BitMine aide à construire le cas selon lequel l'Ethereum peut également occuper le centre d'une stratégie de bilan d'entreprise.
Si vous avez déjà vu quelqu'un utiliser l'IA pour la première fois, c'est presque toujours la même réaction.Ils sont impressionnés par la fluidité. La réponse revient propre, rapide et confiante. On a l'impression que c'est quelque chose de fini. Et pendant un moment, c'est suffisant. Alors vous passez plus de temps avec, et vous commencez à remarquer l'autre modèle. Le modèle peut se tromper sans avoir l'air de se tromper. Il peut inventer quelque chose et l'écrire comme un fait. Il peut pencher vers un biais tout en ayant l'air neutre. Et vous pouvez généralement dire quand cela se produit parce que le ton ne change pas lorsque le soutien sous la phrase disparaît. Il garde la même certitude calme, même quand il s'aventure sur la glace mince.

Si vous avez déjà vu quelqu'un utiliser l'IA pour la première fois, c'est presque toujours la même réaction.

Ils sont impressionnés par la fluidité. La réponse revient propre, rapide et confiante. On a l'impression que c'est quelque chose de fini. Et pendant un moment, c'est suffisant.
Alors vous passez plus de temps avec, et vous commencez à remarquer l'autre modèle. Le modèle peut se tromper sans avoir l'air de se tromper. Il peut inventer quelque chose et l'écrire comme un fait. Il peut pencher vers un biais tout en ayant l'air neutre. Et vous pouvez généralement dire quand cela se produit parce que le ton ne change pas lorsque le soutien sous la phrase disparaît. Il garde la même certitude calme, même quand il s'aventure sur la glace mince.
BIG : Starcloud soutenu par Nvidia annonce sa mission Starcloud-2essaiera de devenir le premier mineur de Bitcoin dans l'espace plus tard cette année, selon des rapports récents citant le PDG Philip Johnston. Johnston a soutenu que l'exploitation minière hors de la planète pourrait être la direction à long terme pour l'industrie car l'exploitation minière de Bitcoin sur Terre utilise déjà environ 20 gigawatts de puissance en continu. L'idée derrière cela est simple : l'espace offre une énergie solaire presque constante, pas de concurrence avec les réseaux électriques terrestres, et un cadre où l'infrastructure informatique pourrait éventuellement évoluer sans les mêmes contraintes de terrain et d'énergie auxquelles les mineurs sont confrontés sur Terre. Starcloud a développé une infrastructure de centre de données orbital et a précédemment attiré l'attention pour des projets impliquant des GPU Nvidia H100 dans l'espace.

BIG : Starcloud soutenu par Nvidia annonce sa mission Starcloud-2

essaiera de devenir le premier mineur de Bitcoin dans l'espace plus tard cette année, selon des rapports récents citant le PDG Philip Johnston. Johnston a soutenu que l'exploitation minière hors de la planète pourrait être la direction à long terme pour l'industrie car l'exploitation minière de Bitcoin sur Terre utilise déjà environ 20 gigawatts de puissance en continu.

L'idée derrière cela est simple : l'espace offre une énergie solaire presque constante, pas de concurrence avec les réseaux électriques terrestres, et un cadre où l'infrastructure informatique pourrait éventuellement évoluer sans les mêmes contraintes de terrain et d'énergie auxquelles les mineurs sont confrontés sur Terre. Starcloud a développé une infrastructure de centre de données orbital et a précédemment attiré l'attention pour des projets impliquant des GPU Nvidia H100 dans l'espace.
Je pensais que la "partie difficile" des robots était le matériel. Moteurs, capteurs, faire bouger quelque chose sans blesser qui que ce soit. C'est toujours difficile, évidemment. Mais il devient évident après un certain temps que le plus grand désordre est tout ce qui entoure le robot. Les instructions. L'autorité. La chaîne chaotique de "qui a dit que c'était acceptable ?" Vous pouvez généralement dire quand un système est en train de rencontrer des problèmes lorsqu'il compte sur tout le monde pour rester honnête et coordonné. C'est là que les choses deviennent intéressantes avec les agents d'IA. Ils n'exécutent pas seulement des tâches. Ils prennent de petites décisions. Ils changent de plans. Ils négocient. Et ces changements peuvent se répandre à travers les organisations sans que quiconque ait l'impression d'avoir pris une grande décision. Un fournisseur accepte une mise à jour automatisée. Un robot d'entrepôt la suit. Un client est impacté. Puis la question passe de "pourquoi a-t-il fait cela ?" à "qui a approuvé cela, et quelle règle était en vigueur quand cela s'est produit ?" La plupart des entreprises essaient de résoudre cela avec des journaux internes et des flux d'approbation. Ce qui aide, jusqu'à ce que cela ne fonctionne plus. Au moment où il y a un litige, chaque partie apporte ses propres enregistrements, et les enregistrements ne s'alignent pas. Différents horloges. Différentes autorisations. Différents incitations. Vous finissez par reconstruire l'intention à partir de fragments, et c'est lent et coûteux. @FabricFND Le protocole me fait penser à des preuves partagées plus qu'à un contrôle partagé. Un endroit pour ancrer les décisions, le calcul et les contraintes d'une manière que d'autres peuvent vérifier sans faire confiance à vos systèmes. Pas une solution magique. Juste une infrastructure qui pourrait rendre la coordination moins fragile, ce qui est généralement ce qui échoue en premier. #ROBO $ROBO
Je pensais que la "partie difficile" des robots était le matériel. Moteurs, capteurs, faire bouger quelque chose sans blesser qui que ce soit. C'est toujours difficile, évidemment. Mais il devient évident après un certain temps que le plus grand désordre est tout ce qui entoure le robot. Les instructions. L'autorité. La chaîne chaotique de "qui a dit que c'était acceptable ?"

Vous pouvez généralement dire quand un système est en train de rencontrer des problèmes lorsqu'il compte sur tout le monde pour rester honnête et coordonné. C'est là que les choses deviennent intéressantes avec les agents d'IA. Ils n'exécutent pas seulement des tâches. Ils prennent de petites décisions. Ils changent de plans. Ils négocient. Et ces changements peuvent se répandre à travers les organisations sans que quiconque ait l'impression d'avoir pris une grande décision. Un fournisseur accepte une mise à jour automatisée. Un robot d'entrepôt la suit. Un client est impacté. Puis la question passe de "pourquoi a-t-il fait cela ?" à "qui a approuvé cela, et quelle règle était en vigueur quand cela s'est produit ?"

La plupart des entreprises essaient de résoudre cela avec des journaux internes et des flux d'approbation. Ce qui aide, jusqu'à ce que cela ne fonctionne plus. Au moment où il y a un litige, chaque partie apporte ses propres enregistrements, et les enregistrements ne s'alignent pas. Différents horloges. Différentes autorisations. Différents incitations. Vous finissez par reconstruire l'intention à partir de fragments, et c'est lent et coûteux.

@Fabric Foundation Le protocole me fait penser à des preuves partagées plus qu'à un contrôle partagé. Un endroit pour ancrer les décisions, le calcul et les contraintes d'une manière que d'autres peuvent vérifier sans faire confiance à vos systèmes. Pas une solution magique. Juste une infrastructure qui pourrait rendre la coordination moins fragile, ce qui est généralement ce qui échoue en premier.

#ROBO $ROBO
Je reviens sans cesse à cette idée tranquille que les robots ne font pas vraiment peur aux gens parce qu'ils sont « intelligents ».Ils font peur aux gens parce qu'ils sont difficiles à lire. Un robot se déplace dans une pièce et vous ne pouvez pas dire à quoi il fait attention. Ou pourquoi il a choisi ce chemin plutôt qu'un autre. Ou ce qu'il va faire ensuite. Même si rien de mauvais ne se produit, cette incertitude flotte dans l'air. Et une fois que les robots deviennent plus polyvalents, cette incertitude grandit. Pas seulement pour les personnes autour du robot, mais pour les personnes qui le construisent aussi. Parce que polyvalent ne signifie pas « une machine parfaite ». Cela signifie généralement « une machine qui continue de changer ».

Je reviens sans cesse à cette idée tranquille que les robots ne font pas vraiment peur aux gens parce qu'ils sont « intelligents ».

Ils font peur aux gens parce qu'ils sont difficiles à lire.
Un robot se déplace dans une pièce et vous ne pouvez pas dire à quoi il fait attention. Ou pourquoi il a choisi ce chemin plutôt qu'un autre. Ou ce qu'il va faire ensuite. Même si rien de mauvais ne se produit, cette incertitude flotte dans l'air.
Et une fois que les robots deviennent plus polyvalents, cette incertitude grandit. Pas seulement pour les personnes autour du robot, mais pour les personnes qui le construisent aussi. Parce que polyvalent ne signifie pas « une machine parfaite ». Cela signifie généralement « une machine qui continue de changer ».
Il y a un moment qui se produit assez rapidement lorsque vous utilisez beaucoup l'IA.Au début, vous êtes impressionné par tout ce qu'elle peut faire. Puis vous commencez à remarquer le motif sous-jacent. Le modèle parle dans la même voix stable, qu'il soit certain ou en train de deviner. Il peut dire quelque chose de vrai, puis glisser vers quelque chose de fabriqué, sans changer de rythme. Et vous pouvez généralement dire quand ce changement se produit, car les mots deviennent légèrement trop lisses, comme s'ils flottaient un peu. C'est le problème de fiabilité auquel les gens continuent de faire face. Ce n'est pas que l'IA soit inutile. Elle est utile tout le temps. Mais l'utilité n'est pas la même chose que la fiabilité. Et plus vous imaginez l'IA utilisée dans des contextes critiques - des endroits où sa sortie se transforme en action - plus cette différence est importante.

Il y a un moment qui se produit assez rapidement lorsque vous utilisez beaucoup l'IA.

Au début, vous êtes impressionné par tout ce qu'elle peut faire. Puis vous commencez à remarquer le motif sous-jacent. Le modèle parle dans la même voix stable, qu'il soit certain ou en train de deviner. Il peut dire quelque chose de vrai, puis glisser vers quelque chose de fabriqué, sans changer de rythme. Et vous pouvez généralement dire quand ce changement se produit, car les mots deviennent légèrement trop lisses, comme s'ils flottaient un peu.
C'est le problème de fiabilité auquel les gens continuent de faire face. Ce n'est pas que l'IA soit inutile. Elle est utile tout le temps. Mais l'utilité n'est pas la même chose que la fiabilité. Et plus vous imaginez l'IA utilisée dans des contextes critiques - des endroits où sa sortie se transforme en action - plus cette différence est importante.
$XRP est en train de glisser, et les traders se concentrent sur un niveau : 1,35 $. C'est la zone que le marché surveille après de fortes ventes plus tôt dans la session. Lorsque le prix est poussé vers le bas sur un volume élevé, la prochaine question est simple : le support tient-il vraiment, ou cède-t-il ? En ce moment, 1,35 $ est le niveau qui pourrait décider de l'humeur à court terme. Si les acheteurs le défendent, #XRP pourrait se stabiliser et essayer de construire un rebond à partir de là. Mais si cette zone casse proprement, les traders commenceront probablement à chercher des niveaux plus bas et la pression pourrait augmenter rapidement. C'est pourquoi le support est si important dans des moments comme celui-ci. Ce n'est pas juste un numéro sur le graphique. Cela devient la ligne entre « faiblesse temporaire » et « possible baisse plus profonde ». La grande chose à surveiller maintenant est la réaction. Pas seulement si XRP touche 1,35 $, mais comment le prix se comporte autour de cela. Un rejet brusque par le bas serait un signe faible. Une forte défense avec un volume entrant aurait l'air très différente. Pour l'instant, le marché est en mode attente. XRP a un test clé devant lui, et 1,35 $ est le niveau que tout le monde surveille. #Trump'sCyberStrategy #RFKJr.RunningforUSPresidentin2028
$XRP est en train de glisser, et les traders se concentrent sur un niveau : 1,35 $.

C'est la zone que le marché surveille après de fortes ventes plus tôt dans la session.

Lorsque le prix est poussé vers le bas sur un volume élevé, la prochaine question est simple : le support tient-il vraiment, ou cède-t-il ? En ce moment, 1,35 $ est le niveau qui pourrait décider de l'humeur à court terme.

Si les acheteurs le défendent, #XRP pourrait se stabiliser et essayer de construire un rebond à partir de là. Mais si cette zone casse proprement, les traders commenceront probablement à chercher des niveaux plus bas et la pression pourrait augmenter rapidement.

C'est pourquoi le support est si important dans des moments comme celui-ci. Ce n'est pas juste un numéro sur le graphique. Cela devient la ligne entre « faiblesse temporaire » et « possible baisse plus profonde ».

La grande chose à surveiller maintenant est la réaction.

Pas seulement si XRP touche 1,35 $, mais comment le prix se comporte autour de cela. Un rejet brusque par le bas serait un signe faible. Une forte défense avec un volume entrant aurait l'air très différente.

Pour l'instant, le marché est en mode attente.

XRP a un test clé devant lui, et 1,35 $ est le niveau que tout le monde surveille.

#Trump'sCyberStrategy #RFKJr.RunningforUSPresidentin2028
J'ai remarqué que plus la robotique devient « réelle », moins elle semble impressionnante en surface.Pas parce que ce n'est pas impressionnant. Ça l'est. Mais le travail évolue. Il s'éloigne des moments dramatiques et entre dans les routines stables, légèrement désordonnées, qui maintiennent un système utilisable. Maintenance. Mises à jour. Audits. Revues d'incidents. Permissions. Changements de politique. Le genre de choses que les gens ne publient pas en clips. Et quand vous commencez à prêter attention à cette couche, beaucoup de robotique commence à ressembler moins à une invention unique et plus à une relation continue entre les gens et les machines. C'est l'état d'esprit dans lequel je suis quand je lis la description du Fabric Protocol.

J'ai remarqué que plus la robotique devient « réelle », moins elle semble impressionnante en surface.

Pas parce que ce n'est pas impressionnant. Ça l'est. Mais le travail évolue. Il s'éloigne des moments dramatiques et entre dans les routines stables, légèrement désordonnées, qui maintiennent un système utilisable. Maintenance. Mises à jour. Audits. Revues d'incidents. Permissions. Changements de politique. Le genre de choses que les gens ne publient pas en clips.
Et quand vous commencez à prêter attention à cette couche, beaucoup de robotique commence à ressembler moins à une invention unique et plus à une relation continue entre les gens et les machines.
C'est l'état d'esprit dans lequel je suis quand je lis la description du Fabric Protocol.
ALTS: 38 % des altcoins sont désormais proches de leurs plus bas historiques. Cela en dit long sur l'état de ce marché. Alors que les gens se concentrent encore sur #Bitcoin , qui se maintient mieux que prévu, une grande partie du marché des altcoins est déjà profondément en territoire de dommages. Lorsque près de quatre altcoins sur dix sont assis près de leurs niveaux les plus bas jamais atteints, ce n'est pas une faiblesse normale. C'est une vraie épuisement. Cela montre également à quel point ce marché est devenu sélectif. Tous les cryptos ne bougent plus ensemble. Le Bitcoin peut rester relativement fort, quelques grands noms peuvent rebondir, et la plupart des altcoins peuvent sembler complètement cassés en dessous. Cet écart est important car il vous indique que la force générale des altcoins n'est toujours pas là. C'est généralement à quoi ressemble la douleur en phase tardive dans les parties faibles du marché. La liquidité s'évapore, l'intérêt disparaît, et les projets sans demande forte continuent simplement de s'effondrer. À ce stade, le prix ne bouge plus en fonction du battage médiatique. Il se déplace en fonction de la survie. En même temps, des chiffres comme celui-ci montrent également à quel point l'espace altcoin est en train de se dégrader. Lorsqu'une grande part du marché est assise près des plus bas historiques, cela signifie que la peur, la frustration et la capitulation sont déjà bien avancées. Cela ne garantit pas qu'un rebond des altcoins soit le prochain. Mais cela montre à quel point les dommages déjà causés sont considérables. En ce moment, le message est clair : ce n'est pas un marché des altcoins sain. Le capital est concentré, la confiance est faible, et une grande partie du secteur est encore coincée près du sol. C'est là où les choses en sont. $BTC #Trump'sCyberStrategy #RFKJr.RunningforUSPresidentin2028
ALTS: 38 % des altcoins sont désormais proches de leurs plus bas historiques.

Cela en dit long sur l'état de ce marché.

Alors que les gens se concentrent encore sur #Bitcoin , qui se maintient mieux que prévu, une grande partie du marché des altcoins est déjà profondément en territoire de dommages. Lorsque près de quatre altcoins sur dix sont assis près de leurs niveaux les plus bas jamais atteints, ce n'est pas une faiblesse normale. C'est une vraie épuisement.

Cela montre également à quel point ce marché est devenu sélectif.

Tous les cryptos ne bougent plus ensemble. Le Bitcoin peut rester relativement fort, quelques grands noms peuvent rebondir, et la plupart des altcoins peuvent sembler complètement cassés en dessous. Cet écart est important car il vous indique que la force générale des altcoins n'est toujours pas là.

C'est généralement à quoi ressemble la douleur en phase tardive dans les parties faibles du marché. La liquidité s'évapore, l'intérêt disparaît, et les projets sans demande forte continuent simplement de s'effondrer. À ce stade, le prix ne bouge plus en fonction du battage médiatique. Il se déplace en fonction de la survie.

En même temps, des chiffres comme celui-ci montrent également à quel point l'espace altcoin est en train de se dégrader. Lorsqu'une grande part du marché est assise près des plus bas historiques, cela signifie que la peur, la frustration et la capitulation sont déjà bien avancées.

Cela ne garantit pas qu'un rebond des altcoins soit le prochain.

Mais cela montre à quel point les dommages déjà causés sont considérables.

En ce moment, le message est clair : ce n'est pas un marché des altcoins sain. Le capital est concentré, la confiance est faible, et une grande partie du secteur est encore coincée près du sol.

C'est là où les choses en sont.

$BTC #Trump'sCyberStrategy #RFKJr.RunningforUSPresidentin2028
Au début, la phrase « registre public pour les robots » m'a fait hausser les épaules. Vous pouvez généralement dire quand quelque chose concerne davantage la démonstration d'un point que la survie au contact de véritables flux de travail. Et les véritables flux de travail sont désordonnés. Les gens contournent les systèmes. Les partenaires envoient des données incomplètes. Quelqu'un approuve un changement à 18h et oublie de le dire à quiconque. Mais ensuite, vous regardez ce qui se passe lorsque des agents et des robots commencent à faire de petites choses automatiquement. Rien de dramatique. Un robot choisit un chemin différent. Un agent ajuste les quantités de réapprovisionnement. Un planificateur déplace la main-d'œuvre pour respecter une échéance. Individuellement, ceux-ci sont inoffensifs. C'est là que les choses deviennent intéressantes : l'impact apparaît plus tard, et souvent ailleurs. Un fournisseur est court-circuité. Une limite de sécurité est franchie. Un rétrofacturation arrive. La question passe de « que fait le système ? » à « qui était autorisé à le laisser faire cela, et comment prouvons-nous cela sans argumenter ? » La plupart des entreprises ont des journaux. Certaines ont des flux de travail d'approbation convenables. Le problème est que ces outils sont construits pour le confort interne d'une organisation, et non pour une responsabilité partagée. Au moment où vous impliquez un fournisseur, un client, un assureur ou un régulateur, les dossiers internes commencent à ressembler à des notes privées. Les gens ne leur font pas confiance. Ou ils leur font confiance jusqu'à ce que les incitations changent. Ainsi, @FabricFND Protocol me semble moins une initiative robotique et plus une tentative de créer une couche partagée pour l'autorité et la preuve. Un endroit pour ancrer les décisions, les contraintes et la délégation entre des parties qui ne se font pas entièrement confiance. Cela ne garantit pas de bons résultats. Cela change simplement ce qui peut être vérifié plus tard, lorsque tout le monde est fatigué et que l'histoire commence à dériver. #ROBO $ROBO
Au début, la phrase « registre public pour les robots » m'a fait hausser les épaules. Vous pouvez généralement dire quand quelque chose concerne davantage la démonstration d'un point que la survie au contact de véritables flux de travail. Et les véritables flux de travail sont désordonnés. Les gens contournent les systèmes. Les partenaires envoient des données incomplètes. Quelqu'un approuve un changement à 18h et oublie de le dire à quiconque.

Mais ensuite, vous regardez ce qui se passe lorsque des agents et des robots commencent à faire de petites choses automatiquement. Rien de dramatique. Un robot choisit un chemin différent. Un agent ajuste les quantités de réapprovisionnement. Un planificateur déplace la main-d'œuvre pour respecter une échéance. Individuellement, ceux-ci sont inoffensifs. C'est là que les choses deviennent intéressantes : l'impact apparaît plus tard, et souvent ailleurs. Un fournisseur est court-circuité. Une limite de sécurité est franchie. Un rétrofacturation arrive. La question passe de « que fait le système ? » à « qui était autorisé à le laisser faire cela, et comment prouvons-nous cela sans argumenter ? »

La plupart des entreprises ont des journaux. Certaines ont des flux de travail d'approbation convenables. Le problème est que ces outils sont construits pour le confort interne d'une organisation, et non pour une responsabilité partagée. Au moment où vous impliquez un fournisseur, un client, un assureur ou un régulateur, les dossiers internes commencent à ressembler à des notes privées. Les gens ne leur font pas confiance. Ou ils leur font confiance jusqu'à ce que les incitations changent.

Ainsi, @Fabric Foundation Protocol me semble moins une initiative robotique et plus une tentative de créer une couche partagée pour l'autorité et la preuve. Un endroit pour ancrer les décisions, les contraintes et la délégation entre des parties qui ne se font pas entièrement confiance. Cela ne garantit pas de bons résultats. Cela change simplement ce qui peut être vérifié plus tard, lorsque tout le monde est fatigué et que l'histoire commence à dériver.

#ROBO $ROBO
DERNIÈRE MINUTE : Trump signe un ordre cybernétique qui pourrait avoir de l'importance pour Bitcoin dans un avenir post-quantiqueLa Maison Blanche a lancé une nouvelle initiative en matière de cybersécurité qui mentionne explicitement le soutien à la sécurité des cryptomonnaies et des technologies blockchain, y compris l'adoption de la cryptographie post-quantique. Cela a de l'importance car l'informatique quantique a longtemps été considérée comme une menace future pour certaines parties de la pile de sécurité numérique d'aujourd'hui. Pour être précis, il ne s'agit pas d'un ordre qui « protège Bitcoin » au sens de réécrire Bitcoin lui-même. C'est un mouvement stratégique plus large en matière de cybersécurité aux États-Unis. Mais pour le marché des cryptomonnaies, le signal est tout de même important : Washington traite désormais ouvertement la sécurité de la blockchain comme faisant partie de la conversation nationale sur la cybersécurité, et il lie cette discussion au passage aux systèmes résistants aux quantiques.

DERNIÈRE MINUTE : Trump signe un ordre cybernétique qui pourrait avoir de l'importance pour Bitcoin dans un avenir post-quantique

La Maison Blanche a lancé une nouvelle initiative en matière de cybersécurité qui mentionne explicitement le soutien à la sécurité des cryptomonnaies et des technologies blockchain, y compris l'adoption de la cryptographie post-quantique. Cela a de l'importance car l'informatique quantique a longtemps été considérée comme une menace future pour certaines parties de la pile de sécurité numérique d'aujourd'hui.
Pour être précis, il ne s'agit pas d'un ordre qui « protège Bitcoin » au sens de réécrire Bitcoin lui-même. C'est un mouvement stratégique plus large en matière de cybersécurité aux États-Unis. Mais pour le marché des cryptomonnaies, le signal est tout de même important : Washington traite désormais ouvertement la sécurité de la blockchain comme faisant partie de la conversation nationale sur la cybersécurité, et il lie cette discussion au passage aux systèmes résistants aux quantiques.
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos
💬 Interagissez avec vos créateurs préféré(e)s
👍 Profitez du contenu qui vous intéresse
Adresse e-mail/Nº de téléphone
Plan du site
Préférences en matière de cookies
CGU de la plateforme