Je pensais que la "partie difficile" des robots était le matériel. Moteurs, capteurs, faire bouger quelque chose sans blesser qui que ce soit. C'est toujours difficile, évidemment. Mais il devient évident après un certain temps que le plus grand désordre est tout ce qui entoure le robot. Les instructions. L'autorité. La chaîne chaotique de "qui a dit que c'était acceptable ?"
Vous pouvez généralement dire quand un système est en train de rencontrer des problèmes lorsqu'il compte sur tout le monde pour rester honnête et coordonné. C'est là que les choses deviennent intéressantes avec les agents d'IA. Ils n'exécutent pas seulement des tâches. Ils prennent de petites décisions. Ils changent de plans. Ils négocient. Et ces changements peuvent se répandre à travers les organisations sans que quiconque ait l'impression d'avoir pris une grande décision. Un fournisseur accepte une mise à jour automatisée. Un robot d'entrepôt la suit. Un client est impacté. Puis la question passe de "pourquoi a-t-il fait cela ?" à "qui a approuvé cela, et quelle règle était en vigueur quand cela s'est produit ?"
La plupart des entreprises essaient de résoudre cela avec des journaux internes et des flux d'approbation. Ce qui aide, jusqu'à ce que cela ne fonctionne plus. Au moment où il y a un litige, chaque partie apporte ses propres enregistrements, et les enregistrements ne s'alignent pas. Différents horloges. Différentes autorisations. Différents incitations. Vous finissez par reconstruire l'intention à partir de fragments, et c'est lent et coûteux.
@Fabric Foundation Le protocole me fait penser à des preuves partagées plus qu'à un contrôle partagé. Un endroit pour ancrer les décisions, le calcul et les contraintes d'une manière que d'autres peuvent vérifier sans faire confiance à vos systèmes. Pas une solution magique. Juste une infrastructure qui pourrait rendre la coordination moins fragile, ce qui est généralement ce qui échoue en premier.
#ROBO $ROBO