J'ai passé beaucoup de temps à lire et à apprendre des personnes qui travaillent avec des systèmes automatisés. Une chose apparaît constamment dans leurs expériences : les problèmes ne commencent pas toujours par un échec majeur. Souvent, ils commencent par quelque chose de très petit—quand un système ne peut pas clairement expliquer la raison derrière sa propre décision.

Au début, tout semble bien. Les tâches s'exécutent, le travail est achevé, et les rapports semblent bons. Mais pendant les périodes chargées, quelque chose d'étrange commence à apparaître à côté de certaines tâches : "inconnu."

La tâche a été complétée, mais il n'est pas clair pourquoi cette décision particulière a été prise.

C'est à ce moment que la faiblesse de l'automatisation commence lentement à se montrer. L'équipe devient prudente. Des processus qui se déroulaient autrefois en une seule étape nécessitent soudainement une révision manuelle. De nouvelles étapes d'approbation sont ajoutées. Le rythme du travail ralentit—non pas parce que le travail lui-même est difficile, mais parce que l'explication derrière la décision est manquante.

C'est là qu'une vérité importante devient claire :

L'automatisation ne consiste pas seulement à faire le travail. La capacité d'expliquer ses propres décisions est tout aussi importante.

Pour moi, c'est le plus aspect important de la discussion autour de $ROBO —construire des systèmes où les décisions, les codes de raison et la vérification fonctionnent ensemble.

Parce qu'en fin de compte, la véritable force de la technologie n'est pas seulement la vitesse—c'est la fiabilité et la confiance.@Fabric Foundation #ROBO