قد تصبح هوية الآلة أقل ارتباطًا بالتعرف وأكثر ارتباطًا بالتفاوض. في الأنظمة الروبوتية المفتوحة، السؤال الحقيقي ليس فقط من تكون الآلة، ولكن كيف تثبت السياق والنوايا والحدود في الوقت الحقيقي. هل يمكن للروبوت أن يشرح لماذا يستحق الوصول؟ هل يمكن أن تتطور الهوية عندما تتغير سلوكياتها؟ هل يمكن أن تكون الثقة مؤقتة بدلاً من دائمة؟ تشير فكرة Fabric إلى مستقبل تكون فيه هوية الآلة ديناميكية وسياقية وتفسر باستمرار. هذا يغير كل شيء. قد لا نبني روبوتات بهويات فحسب، بل نظمًا بيئية حيث تُختبر الهوية باستمرار، وتُطرح الأسئلة، وتُحدث، ويفهمها المجتمع من خلال التفاعل، وليس فقط التسجيل.
لا يفكر البشر في الهوية بالطريقة نفسها التي تفكر بها الآلات. بالنسبة لنا، تنمو الهوية ببطء، فهي تنبع من الذاكرة والعادات والعلاقات، ومن الطريقة التي يتعرف بها الآخرون علينا بمرور الوقت. نحن نعيش هويتنا قبل أن نحاول شرحها. أما الآلة، فهي مختلفة. لا تكتسب الآلة هوية من تلقاء نفسها، بل تُصمم هويتها خصيصًا لها.
لهذا السبب أجد فكرة فابريك مثيرة للاهتمام. ففي موادها العامة، لا تتعامل فابريك مع الروبوت كجهاز بسيط يحمل رقمًا تسلسليًا، بل تتحدث عن نظام يُمكّن كل روبوت من امتلاك هوية فريدة تُبنى باستخدام أدوات التشفير. كما تُشير إلى أن الروبوت قادر على حمل بيانات وصفية عامة حول قدراته واهتماماته وكيفية بنائه والقواعد التي تُحدد سلوكه. قد يبدو هذا الكلام تقنيًا، لكن الفكرة الأساسية بسيطة. يبدو أن فابريك تُؤكد على ضرورة فهم الآلات بشكل أعمق من مجرد كونها "متصلة بالإنترنت" أو "مسجلة" لكي تعمل في بيئات مشتركة.
خصوصية المعرفة الصفرية الحقيقية: هل يمكن أن يوجد استخدام للبلوكشين بدون تعرض كامل؟
عندما يتحدث الناس عن البلوكشين، غالبًا ما يتحدثون عن الثقة والشفافية وإزالة الوسطاء. لكن هناك سؤال آخر مهم بنفس القدر: ماذا يحدث للخصوصية في نظام يمكن فيه رؤية كل شيء تقريبًا؟ لقد كانت هذه واحدة من أكبر المشاكل في العملات المشفرة منذ البداية. جعلت البلوكشين العامة من الممكن لأي شخص التحقق من المعاملات، لكنها جعلت من الأسهل أيضًا تتبع المستخدمين ومتابعة المحافظ ودراسة السلوك بطرق لم يتوقعها الكثير من الناس تمامًا.
تم بناء البلوك تشين لإزالة الثقة من الوسطاء، لكن هل أنشأ بهدوء اعتمادًا جديدًا على التعرض؟ إذا كان يمكن تتبع كل إجراء، فهل هذه حرية حقيقية للمستخدم، أم مجرد تحكم شفاف؟ قد لا تكون المرحلة التالية من العملات المشفرة تتعلق بجعل كل شيء مرئيًا. قد تتعلق بتحديد ما ينبغي أن يبقى خاصًا، وما يجب إثباته، ومن يملك الحق في تحديد تلك الحدود. هل يمكن أن تحمي البلوك تشين السياق، وليس فقط المعاملات؟ هل يمكن للمستخدمين الاحتفاظ بملكية بياناتهم دون إضعاف التحقق؟ وإذا أصبحت الخصوصية قابلة للبرمجة، فمن يضمن عدم إساءة استخدام هذه القوة من قبل النظام نفسه؟
النسيج ليس مجرد رهان على الروبوتات. إنه رهان على ما لا تملكه الروبوتات بعد: إطار اقتصادي أصلي. هذه هي النقطة التي يغفلها معظم الناس. إن إكمال الآلة لمهمة ما ليس القصة الكاملة. السؤال الأكثر صعوبة هو كل ما يحدث حول تلك المهمة. كيف يتم تعريف الآلة. كيف يتم تخصيص العمل. كيف يتم التحقق من الإنجاز. كيف تتحرك القيمة بمجرد الانتهاء من العمل. هذه هي الطبقة التي تركز عليها Fabric. وهذا هو السبب في أن المشروع يبدو أكثر جدية من السرد الروبوتي المعتاد. كما يعني أن هذا الأمر مهم خارج الروبوتات. في اللحظة التي يمكن فيها تتبع نشاط الآلة وتنسيقه وتسويته بشكل أصلي، يبدأ دور المال في التغيير. يتوقف عن الظهور كشيء ثابت يجلس فقط في حساب. يبدأ في الظهور أكثر كنظام حي للأذونات والحوافز والتنفيذ. هذا يغير المحادثة تمامًا. لا يزال معظم الناس يراقبون الآلة. القصة الأكثر أهمية هي البنية التحتية التي تتشكل تحتها. بهدوء، هناك حيث تتحرك الأرض.
بروتوكول Fabric والمشكلة الصعبة في إدارة الروبوتات في العلن
عندما يتحدث الناس عن الذكاء الاصطناعي، عادة ما يتحدثون عن البرمجيات. يتحدثون عن الروبوتات الدردشة، الصور، والنماذج التي تجيب على الأسئلة على الشاشة. لكن السؤال الأصعب يبدأ عندما تنتقل الآلات إلى العالم الحقيقي. روبوت في مستودع، مستشفى، أو شارع عام يخلق مشكلة مختلفة تمامًا. الأمر لا يتعلق فقط ما إذا كانت الآلة ذكية. الأمر يتعلق بمن يتحكم فيها، من يتحقق من سلوكها، وكيف يمكن لأي شخص أن يثق فيما تفعله.
هذه هي المشكلة الأكبر وراء بروتوكول Fabric. قبل مشاريع مثل هذه، كانت الروبوتات تنمو في الغالب داخل أنظمة مغلقة. كانت شركة واحدة تبني الأجهزة، تتحكم في البرمجيات، تجمع البيانات، وتضع القواعد. يمكن أن يعمل هذا النموذج، لكنه أيضًا يخلق الكثير من التركيز. لا يمكن للغرباء رؤية كيفية اتخاذ القرارات بسهولة. لا يمكن للمطورين بناء أنظمة جديدة بسهولة فوق تلك الأنظمة. ولدى المستخدمين رأي ضئيل جدًا في كيفية تطور الروبوتات بمرور الوقت. ببساطة، كانت الروبوتات قوية، لكنها ليست مفتوحة جداً.
منتصف الليل يجعلني أفكر أن الخصوصية ليست فقط عن إخفاء البيانات، ولكن عن تقليل الاعتماد على الأنظمة التي يجب ألا تحتفظ بها إلى الأبد في المقام الأول. ربما التحول الأعمق هو هذا: ماذا لو أصبحت سلاسل الكتل أماكن للتحقق، وليس تخزين السياق البشري؟ ماذا يحدث عندما يحتفظ المستخدمون بمزيد من حالتهم الحساسة، والشبكة تتحقق فقط من صحة النتائج؟ يبدو أن هذا قوي، لكنه يثير أيضًا أسئلة أصعب. هل سيتعامل الناس مع تلك المسؤولية بشكل جيد؟ هل ستجعل التطبيقات الخصوصية المحلية بسيطة بما يكفي للثقة؟ وهل يمكن أن يعيد هذا النموذج تعريف ما يعنيه الملكية الرقمية حقًا بهدوء؟
عندما تبقى الخصوصية قريبة من المنزل: منتصف الليل وفكرة سلسلة الكتل المحلية أولاً
اليوم كنت نائمًا في غرفتي لفترة. عندما استيقظت ونظرت إلى الخارج، شعرت أن الطقس كان لطيفًا بشكل غير عادي. كان هناك نسيم خفيف في الهواء، وللحظة شعرت أن كل شيء خارج بابي أخف من المعتاد. فكرت ربما يجب أن أخرج إلى المعرض وأمشي قليلاً. بينما كنت أمشي هناك، مع ذلك الطقس الهادئ الذي يمنح أفكارك مساحة أكبر من المعتاد، خطر ببالي سؤال. لماذا لا تزال العديد من الأنظمة الحديثة تتوقع منا تسليم المعلومات الشخصية الخام بسهولة، كما لو أن الخصوصية تبدأ فقط بعد الاستسلام؟ تلك الفكرة بقيت معي، وبطريقة ما قادتني مرة أخرى إلى منتصف الليل.
ماذا لو كان أحد أهم الوظائف البشرية في الروبوتات هو ببساطة الانتباه؟ ليس بناء الآلة. ليس التنافس معها. فقط ملاحظة متى يبدو سلوكها خاطئًا قليلاً قبل أن يتمكن النظام من شرح السبب. هذا ما يجعل بروتوكول Fabric مثيرًا للاهتمام بالنسبة لي. إنه يشير إلى مستقبل حيث لا يكون الناس فقط مستخدمين أو عمال، بل مراقبين ونقاد ومقدمي إشارات داخل اقتصاد الآلات نفسه. لكن ثم تبدأ الأسئلة الأصعب. أي ملاحظات تهم؟ من يقوم بترشيح الضوضاء؟ هل يمكن أن تجعل النقد العام الروبوتات أكثر أمانًا، أم أنها تخلق طبقة جديدة من الارتباك؟ ربما ستعتمد الثقة في المستقبل على البشر الذين يعرفون متى يقولون، انظر مرة أخرى.
قد يعتمد مستقبل الروبوتات على البشر الذين يلاحظون ما تفوته الآلة
أحيانًا أتساءل عما إذا كانت أكثر الأعمال الإنسانية قيمة في المستقبل لن تكون الرفع أو الفرز أو القيادة، أو حتى تشغيل الآلات، ولكن ببساطة ملاحظة شيء مهم قبل أن يفعل الجميع ذلك. يتحرك الروبوت في غرفة، يكمل مهمة، يتبع مسارًا، يستجيب لشخص ما، وعلى السطح يبدو أن كل شيء مقبول. لكن شخصًا يراقب عن كثب يشعر بتردد صغير. التوقيت غير صحيح. الحركة صحيحة تقنيًا ولكنها محرجة اجتماعيًا. النظام فعل ما كان من المفترض أن يفعله، ومع ذلك، لا يزال هناك شيء عنه لا يبدو صحيحًا. هذا الحكم الإنساني غير المريح سهل الاستبعاد لأنه من الصعب صياغته. يصبح بروتوكول Fabric مثيرًا للاهتمام في هذه النقطة بالذات، لأن مواده العامة تشير إلى أن الملاحظة والنقد البشري قد يصبحان جزءًا من بنية الروبوتات بدلاً من أن يكونا فكرة لاحقة حولها. تقول مؤسسة Fabric إنها تريد أن يصبح سلوك الآلات قابلاً للتنبؤ والملاحظة، وتشمل ورقتها البيضاء بشكل صريح “مرصد الروبوتات العالمي” المصمم لتحفيز البشر على تقديم ملاحظات بناءة تجعل الآلات أكثر أمانًا، وأكثر فائدة، وأكثر موثوقية.
منتصف الليل وحرب الخصوصية التي تغفل عنها معظم الناس: المعركة حول البيانات الوصفية
أعتقد أن الناس عادة ما يقللون من قيمة ما يمكن تعلمه من أطراف المعلومات بدلاً من المعلومات نفسها. يمكن أن تظل الرسالة غير مقروءة ومع ذلك تكشف عن علاقة. يمكن أن يحتفظ الدفع بغرضه الدقيق مخفيًا ومع ذلك يكشف عن الروتين، والعجلة، والاعتماد، والتوقيت. لقد بدا ذلك دائمًا كواحد من المشاكل الأكثر هدوءًا في الأنظمة الرقمية. نحن نركز على المحتوى المرئي ونفوت النمط المحيط. جعلت سلاسل الكتل العامة من السهل رؤية ذلك. حتى عندما يفكر المستخدمون بشكل أساسي في الأرصدة أو المعاملات، تكشف السلسلة أيضًا عن آثار من يتحرك متى، وأي العناوين تبدو أنها تتجمع معًا، وكيف تتصل النشاطات بخرائط سلوكية مع مرور الوقت. تصبح منتصف الليل مثيرة للاهتمام عند النظر إليها من خلال تلك المشكلة. لا يتعلق الأمر فقط بمحاولة حماية ما تقوله المعاملة. إنه يحاول تقليل ما تقوله شكل المعاملة المرئي عن الأشخاص من حولها. تشير إطار منتصف الليل الخاص بـ "الخصوصية العقلانية" والإفصاح الانتقائي بالضبط في هذا الاتجاه.
هل لا نزال نفكر في خصوصية البلوكشين بشكل ضيق، كما لو أن إخفاء الأرصدة يكفي بينما تستمر البيانات الوصفية في رواية القصة الحقيقية؟ إذا كانت أنماط المعاملات، وإشارات التوقيت، وآثار السلوك لا تزال تكشف العلاقات والعادات، فربما تكون الخصوصية أقل عن الإخفاء وأكثر عن تقليل الارتباط. لهذا السبب يبرز Midnight بالنسبة لي. إنه يدفع بسؤال أعمق: ماذا لو كانت التسريبات الحقيقية ليست محتوى النشاط، بل الشكل المرئي من حوله؟ إذا كان هذا صحيحًا، هل ينبغي تصميم الجيل القادم من بنية الخصوصية التحتية للدفاع ضد الأنماط، وليس فقط ضد الكشف؟
أستمر في التساؤل عما إذا كانت أصعب جزء في الروبوتات ليس الذكاء، بل الحكم. ماذا يحدث عندما تقول آلة إن العمل قد اكتمل، لكن العالم الحقيقي فوضوي للغاية لإثبات مثالي؟ يصبح بروتوكول Fabric مثيرًا للاهتمام في تلك الحافة غير المريحة. إنه يطرح أسئلة أكبر مما تفعله معظم مشاريع الروبوت. من يتحقق من الادعاء؟ من يتحدى ذلك عندما يبدو أن هناك شيئًا غير صحيح؟ كيف يبدو الصدق عندما يكون اليقين مستحيلًا؟ ربما لن تُبنى أنظمة الآلات المستقبلية على تحقق خالٍ من العيوب على الإطلاق. ربما ستعتمد على النزاعات المرئية، والقواعد القابلة للمساءلة، والحوافز القوية بما يكفي للحفاظ على الحقيقة من الانزلاق بهدوء بعيدًا.
قد يعتمد مستقبل ثقة الآلات أقل على الدليل المثالي وأكثر على الخلاف المنظم
تخيل أن روبوتًا يُبلغ أن مهمة قد اكتملت. لقد تم تنظيف الأرضية، وتم تسليم الطرد، وتم الانتهاء من الفحص. في الأنظمة الرقمية، نتحدث أحيانًا كما لو أن الحقيقة يمكن أن تُختم في دليل وتُحل بشكل نظيف. لكن العالم المادي نادرًا ما يتصرف بهذه الطريقة. الحساسات صاخبة. تتغير البيئات. النتائج غالبًا ما تكون جزئية بدلاً من مطلقة. قد يكون الجهاز قد أنجز معظم العمل، أو قام به بشكل سيء، أو قام بشيء يبدو صحيحًا من زاوية ما ومشكوكًا فيه من زاوية أخرى. هذا ما يجعل بروتوكول Fabric أكثر إثارة للاهتمام كسؤال بنية تحتية بدلاً من كونه قصة بسيطة عن الروبوتات. تقول مؤسسة Fabric إنها موجودة لبناء الحوكمة والبنية التحتية الاقتصادية والتنسيق للبشر والآلات الذكية، مع التركيز على جعل سلوك الآلات قابلًا للتوقع والملاحظة. وهذا بالفعل يشير إلى قلق أعمق: ليس فقط ما تفعله الآلات، ولكن كيف يقرر النظام متى يجب أن تُعتبر ادعاءاتهم صحيحة.
لقد رأيت هذا النمط مرات عديدة في البرمجيات. يمكن أن تكون التكنولوجيا قوية حقًا ومع ذلك تظل غير مستخدمة لأن الطريق إليها يبدو غريبًا. لا يرفض المطورون دائمًا التعقيد لأنهم لا يحبون الأشياء الصعبة. غالبًا ما يرفضونها لأن اللقاء الأول يجعلهم يشعرون كما لو كانوا مطالبين بتغيير طريقة تفكيرهم قبل أن يتمكنوا حتى من البدء. لهذا السبب يبقى الكثير من التشفير المتقدم محاصرًا داخل أوراق البحث، والفرق المتخصصة، والعروض المثيرة للإعجاب. قد تكون الرياضيات صحيحة، لكن تكلفة الدخول الذهني مرتفعة. منتصف الليل يبدو الأكثر منطقية بالنسبة لي عندما أنظر إليه من خلال تلك المشكلة الإنسانية بدلاً من اللغة المعتادة لبنية الخصوصية. pitch ليس فقط أن أنظمة المعرفة الصفرية يمكن أن تحمي البيانات. بل إن البناء بها يجب ألا يشعر وكأنه عبور إلى تخصص غريب. توثق Midnight بشكل متكرر Compact كطريقة تحاول بها خفض تلك الحواجز. Compact هي لغة العقد الذكي المخصصة لها، ويحول المترجم كود Compact إلى دوائر معرفة صفرية تستخدم لإثبات صحة التفاعلات مع السجل.
ما الذي يجعلني أعود إلى منتصف الليل ليس فقط بسبب خصوصية المشروع. إنها الطريقة التي يبدو أن المشروع يسأل بها سؤالًا أكثر هدوءًا. ماذا لو كانت التشفير المتقدم تكافح ليس لأن الرياضيات صعبة للغاية، ولكن لأن مسار المطورين إليها يبدو غير طبيعي جدًا؟ Compact يجعلني أتساءل عما إذا كانت تقنية الخصوصية تبدأ أخيرًا في الانتشار عندما يمكن للبنائين الاقتراب منها دون الشعور بأنهم بحاجة إلى أن يصبحوا باحثين في التشفير أولاً. لكن هذا يثير أيضًا سؤالًا آخر. إذا كانت الأدوات تخفي التعقيد، فهل لا يزال المطورون يفهمون تمامًا التبادلات المتعلقة بالخصوصية تحت السطح؟ يشعرني منتصف الليل بالاهتمام لأنه لا يبني فقط بنية تحتية للخصوصية. بل يقوم أيضًا باختبار نفسية المطورين أيضًا.
كلما فكرت في بروتوكول Fabric، كلما رأيت الروبوتات أقل كقصة عن الأجهزة وأكثر كقصة عن القدرات. ماذا يحدث عندما تصبح ذكاء الروبوتات معيارية مثل البرمجيات؟ إذا كان بالإمكان إضافة المهارات أو إزالتها أو تحديثها أو مشاركتها مثل التطبيقات، هل يجعل ذلك الروبوتات أكثر فائدة أم يصعب التحكم فيها فقط؟ من يتحقق مما إذا كانت وحدة المهارة آمنة؟ من يقرر ما يجب تثبيته أو إلغاؤه؟ تصبح Fabric مثيرة للاهتمام تمامًا عند تلك التوتر. ربما لن يأتي التحول التالي في الروبوتات من الآلات الأفضل فحسب، بل من كيفية تعبئة القدرات وتوزيعها والتحكم فيها بذكاء.
قد تكون المعركة القادمة في الروبوتات حول من يقوم بتغليف الذكاء ومن يحكمه
أستمر في التفكير في اللحظات في التكنولوجيا عندما لم يأتي أكبر تحول من آلة جديدة، ولكن من طريقة جديدة لتغليف القدرة. كانت الهواتف موجودة قبل أن تصبح متاجر التطبيقات ذات أهمية. كان البرمجيات موجودة قبل أن تغير الإضافات كيف تخيل الناس التوسع. ما حول تلك الأدوات لم يكن مجرد أداء خام، ولكن الإدراك بأن القدرات يمكن أن تُفصل، وتوزع، وتُحدث، وتُزال، وتُجمع مرة أخرى. هذا هو ما يجعل معالجة بروتوكول Fabric لمهارات الروبوتات تستحق الانتباه. في ورقته البيضاء العامة، يصف المشروع ROBO1 بأنه يستخدم مجموعة إدراك مدفوعة بالذكاء الاصطناعي تتكون من العديد من الوحدات المتخصصة في الوظائف، مع مهارات محددة تُضاف وتُزال من خلال "شرائح المهارات"، مقارنةً بشكل صريح بالتطبيقات المحمولة. الإطار الأوسع للمؤسسة هو أن الروبوتات يجب أن تكون مفتوحة، وقابلة للمسائلة، وقابلة للتحسين جماعياً بدلاً من أن تكون محصورة داخل مجموعة مغلقة واحدة.
ما جذب انتباهي حول منتصف الليل لم يكن السرد المعتاد حول الخصوصية. بل كان تصميم الموارد تحت ذلك. معظم السلاسل تضغط القيمة ووقود التشغيل في نفس التدفق المرئي، وهذا دائماً يبدو مزعجاً بالنسبة لي. يفصل منتصف الليل بين الليل والغبار، مما يجعلني أتساءل عما إذا كانت أنظمة الخصوصية تعمل بشكل أفضل عندما يتم تصميم المحرك بشكل مختلف عن الأصول التي يحملها الناس. إذا كانت الرسوم نفسها يمكن أن تكشف عن أنماط، فهل يمكن لمورد تشغيل محمي أن يحل بهدوء أكثر مما يدركه الناس؟ وإذا كان النموذج أنيقاً في النظرية، فهل سيفهمه المستخدمون فعلياً في الممارسة؟ هذه هي الجزء الذي أجد أنه يستحق المشاهدة.
نظام الوقود المخفي لمنتصف الليل: لماذا تحتاج الخصوصية إلى محرك منفصل
لقد وجدت دائمًا أنه من الغريب قليلاً أن تعامَل سلاسل الكتل أنظمة الوقود الخاصة بها كما لو كانت يجب أن تكون مرئية ومتقلبة ومعرضة باستمرار لنفس مزاج السوق مثل كل شيء آخر. من المفترض أن تشعر البنية التحتية بأنها موثوقة. من المفترض أن تختفي في الخلفية وتقوم بهدوء بعملها. ولكن في العديد من الشبكات، الشيء الذي يدفع ثمن الحوسبة هو أيضًا الشيء الذي يتكهن عليه الجميع، ويشاهده، ويتحرك حوله في العلن. تصبح منتصف الليل أكثر إثارة للاهتمام عندما تتوقف عن النظر إليه كقصة رمزية وتبدأ في النظر إليه كقصة تصميم موارد. تفصل معماريته بين NIGHT، الرمز الأصلي المرافق، و DUST، مورد محمي وغير قابل للتحويل يُستخدم لدفع ثمن المعاملات وتنفيذ العقود الذكية. تصف المواد الخاصة بـ Midnight هذا كنموذج "رمز يولد مورد"، حيث إن الاحتفاظ بـ NIGHT يؤدي تلقائيًا إلى توليد DUST بمرور الوقت.