هناك مشكلة هادئة في قلب عالم الذكاء الاصطناعي التي تعلم معظم الناس العيش معها، حتى لو لم يقولوا ذلك بصوت عالٍ. الإجابات سريعة. اللغة مصقولة. الثقة غالبًا ما تكون مقنعة. لكن في مكان ما بين الفائدة والحق، هناك شيء يستمر في الانزلاق. يمكنك أن تشعر بذلك في اللحظة التي تقدم لك فيها AI إجابة واضحة على سؤال مهم، وبدلاً من الشعور بالراحة، ما تشعر به أولاً هو الشك. ليس لأن الإجابة تبدو سيئة، ولكن لأنها تبدو أكيدة جدًا لشيء تعرف أنه لا يزال يمكن أن يكون خاطئًا. لقد أصبحت هذه التردد الصغير واحدة من الحقائق العاطفية المحددة للذكاء الاصطناعي الحديث.
لقد بنى الناس عادات كاملة حول ذلك التردد. يسألون نفس السؤال مرتين. يتحققون من مصدر آخر. يقارنون نموذجًا بآخر. يقرأون بعناية، ليس لأنهم يريدون ذلك، ولكن لأنهم لم يعودوا يفترضون أن النظام قد كسب الثقة لمجرد أنه يبدو ذكيًا. هذه هي الجزء من قصة الذكاء الاصطناعي الذي غالبًا ما يتم تجاهله. على الرغم من كل الحديث عن التقدم، لا يزال معظم المستخدمين يحملون عبء الحذر بأنفسهم. الآلة تتحدث بسهولة، ولكن الإنسان هو الذي تركsorting من خلال ما يمكن الاعتماد عليه فعلاً.
لهذا السبب يبدو أن مشروع مثل شبكة ميرا ذو صلة بطريقة أكثر جدية من العديد من المشاريع الأخرى. لا يبدو أنه يأتي من الحماس وحده. يبدو أنه يأتي من الإحباط، من مشاهدة نفس الضعف يظهر مرة بعد مرة حتى يصبح من المستحيل تجاهله. هناك نضج معين في المشاريع التي يتم بناؤها ليس من طموح عظيم، ولكن من التعرض المتكرر لعيب يواصل التسبب في الأذى. تبدو ميرا كما لو كانت تنتمي إلى تلك الفئة. لا تبدأ بالفكرة التي تقول إن الذكاء الاصطناعي يحتاج ببساطة إلى أن يصبح أكثر قوة. بل تبدأ بالإدراك الأصعب أن القوة بدون تحقق تستمر في خلق نفس العلاقة الهشة بين النظام والمستخدم.
تعتبر نقطة البداية هذه مهمة لأنها تشكل الفلسفة الكاملة وراء الشبكة. يتم بناء الكثير من منتجات الذكاء الاصطناعي لإبهار الناس أولاً واستقرارها لاحقًا. يركزون على الإنتاج، والسرعة، والنطاق، والمقياس. يبدو أن ميرا تأخذ المسار المعاكس. تبدأ بالجزء غير المريح. تسأل ماذا يحدث بعد生成 الإجابة. من يتحقق منها؟ كيف يتم كسب الثقة؟ ماذا يحدث عندما تبدو الإجابة متماسكة ولكن تخفي تفكيرًا ضعيفًا تحتها؟ هذه ليست أسئلة رائعة، لكنها هي الأسئلة التي تحدد ما إذا كان الذكاء الاصطناعي يصبح شيئًا يمكن للناس الاعتماد عليه حقًا أو مجرد شيء يستعيرونه بحذر.
ما يجعل الفكرة وراء ميرا مقنعة هو أنها تعالج الثقة كشيء يجب أن يُبنى في العملية، وليس إضافته كعلامة تجارية. بدلاً من مطالبة الناس بقبول استجابة الذكاء الاصطناعي كحقيقة واحدة مكتملة، تقوم بتقسيم الناتج إلى ادعاءات أصغر يمكن التحقق منها، والتحدي، والتحقق عبر شبكة لامركزية. قد يبدو ذلك كخيار تصميم، لكنه يغير شيئًا أعمق من التصميم. إنه يغير الشكل العاطفي للتفاعل. لم يعد على المستخدم إما أن يثق بالإجابة الكاملة أو يرفضها تمامًا. تصبح العلاقة أكثر رسوخًا. يمكن أن يقف الادعاء أو يسقط بمفرده.
هذا يبدو أقرب إلى كيفية عمل الحكم البشري فعليًا. في الحياة الواقعية، نادرًا ما يقبل الناس المعلومات المعقدة دفعة واحدة. إنهم يبحثون عن الاتساق. يختبرون أجزاء منه. يثقون بقسم أكثر من الآخر. يتحركون تدريجياً، وليس بشكل أعمى. غالبًا ما تتجاوز أنظمة الذكاء الاصطناعي التقليدية تلك العملية الطبيعية. تقدم إجابة نهائية بسلاسة تجعل الشك يبدو غير مريح. تفعل ميرا شيئًا أكثر صدقًا. إنها تفسح المجال للتدقيق داخل النظام نفسه. تقبل أنه إذا كانت الذكاء الاصطناعي ستهم في البيئات الجادة، فلا يمكن أن يظل التحقق فكرة اختيارية.
لهذا تأثير مباشر على السلوك. عندما يشعر المستخدمون أن التحقق قد أصبح جزءًا من النظام، تتغير علاقتهم مع الناتج. يتوقفون عن التعامل مع كل إجابة كخطر مصقول. يبدأون في رؤية النتيجة كشيء قد مر عبر طبقة من المساءلة قبل أن تصل إليهم. هذا لا يعني أن الثقة العمياء تظهر فجأة. بل يعني أن عبء اليقظة لم يعد محمولًا بالكامل من قبل الشخص الموجود في نهاية الشاشة. وهذه الفجوة أكبر مما تبدو. في الممارسة العملية، الكثير من الناس لا يبحثون عن الكمال من الذكاء الاصطناعي. إنهم يبحثون عن موثوقية كافية حتى لا يضطروا إلى البقاء مشدودين ذهنيًا طوال الوقت الذي يستخدمونه فيه.
يمكنك عادة تعلم الكثير عن بروتوكول من خلال مراقبة سلوك مستخدميه الأوائل. في أنظمة مثل ميرا، يكون المستخدمون الأوائل غالبًا صبورين بشكل غير عادي. إنهم ليسوا هناك لأن كل شيء مصقول. إنهم هناك لأنهم يشعرون بالفعل أن النظام الحالي معطل بطريقة معينة. إنهم مستعدون للتعامل مع الحواف الخشنة لأن الفكرة الأعمق تهمهم. يميل هؤلاء المستخدمون إلى أن يكونوا مفكرين، وتجريبيين، وأكثر تسامحًا مع التعقيد. إنهم لا يستخدمون مجرد منتج. إنهم يختبرون ما إذا كانت هيكلية ثقة مختلفة يمكن أن تعمل فعليًا.
لكن المستخدمين اللاحقين أقل تسامحًا بكثير، وهذه هي النقطة التي تبدأ فيها القصة الحقيقية. إنهم لا يصلون للتحقق من نظرية. إنهم يصلون لأنهم يحتاجون إلى شيء يعمل. إنهم يهتمون أقل بالهندسة المعمارية وأكثر بما إذا كان البروتوكول يتناسب بشكل طبيعي مع سير العمل الحقيقي. إنهم يريدون أن يعرفوا ما إذا كان التحقق يخلق المزيد من الثقة دون خلق المزيد من الارتباك. إنهم غير مهتمين بالمثالية ما لم تنجُ تلك المثالية من الاتصال بالاستخدام العملي. هذا التحول من المتبنين الأوائل الفضوليين إلى المستخدمين اليوميين المتطلبين هو أحد أهم الانتقالات التي يمر بها أي مشروع جاد.
هذا الانتقال هو المكان الذي يبدأ فيه البروتوكول في إظهار ما إذا كان لا يزال تجربة أم أنه يصبح بنية تحتية. يمكن أن تنجو التجارب على الإيمان. لا يمكن أن تنجو البنية التحتية. يتم الحكم على البنية التحتية من خلال التكرار، ومن خلال الثقة تحت الضغط، ومن خلال ما يحدث بعد أن تتلاشى الموجة الأولى من الاهتمام. إذا كانت ميرا ستهم على المدى الطويل، فلن يكون ذلك لأن الناس وجدوا المفهوم أنيقًا. سيكون ذلك لأن المطورين والفرق والمستخدمين بدأوا بهدوء في بناء عاداتهم حولها. سيبدأون في الشعور بأن الذكاء الاصطناعي بدون شكل من أشكال التحقق ليس مجرد غير مكتمل، بل خطير بطريقة لم تعد مقبولة.
ما يجعل ذلك صعبًا هو أن التحقق يأتي تقريبًا دائمًا مع الاحتكاك. والاحتكاك هو شيء تم تدريب العالم التكنولوجي الحديث على عدم الإعجاب به. من المفترض أن يشعر كل شيء بالفورية، والسلاسة، والجهد القليل. ولكن الحقيقة هي أن ليس كل نوع من الاحتكاك عيب. بعض الاحتكاك هو علامة على أن النظام يحترم تكلفة كونه خاطئًا. في عالم يمكن أن تبدو فيه الذكاء الاصطناعي مقنعًا أثناء ارتكاب الأخطاء، فإن فترة توقف قصيرة قبل الثقة ليست عدم كفاءة. إنها انضباط. قد تكمن القيمة الأعمق لـ ميرا في حقيقة أنها مستعدة لحماية هذا الانضباط بدلاً من التظاهر بأن كل نظام مفيد يجب أن يشعر أيضًا بعدم الاحتكاك. #robo
هذا يخلق أحد التوترات المركزية في البروتوكول. يريد المستخدمون الإجابات بسرعة، لكنهم أيضًا يريدون أن تكون تلك الإجابات موثوقة. كلما أصبحت طبقة التحقق أكثر جدية، كلما كان عليها مقاومة ثقافة السرعة التي تهيمن على منتجات الذكاء الاصطناعي. هذا ليس توازنًا سهلاً. إذا أصبحت العملية ثقيلة جدًا، يتجنبها الناس. إذا أصبحت خفيفة جدًا، تتوقف عن أن تعني أي شيء. لا توجد حلقة مثالية لذلك التوتر. هناك فقط تنازلات، وتلك التنازلات تقول الكثير عن ما يقدره المشروع حقًا عندما تبدأ الراحة والمصداقية في سحب في اتجاهات متعارضة. #Mira
لهذا السبب أيضًا، فإن التقييد مهم جدًا في نظام مثل هذا. بعض من أهم القرارات ليست حول ما يتم إطلاقه، ولكن حول ما يتم تأجيله. هناك دائمًا ضغط للتوسع بشكل أسرع، لدعم المزيد من حالات الاستخدام، لتبسيط القصة، لجعل النظام يبدو أكثر اكتمالاً مما هو عليه فعليًا. ولكن التحقق هو أحد تلك المجالات حيث يمكن أن يسبب الوعد الزائد ضررًا للشيء الذي تحاول بناءه. إذا بدأ المستخدمون يشعرون أن الشبكة تعطيهم مظهر اليقين دون الجوهر، فإن الثقة تنكسر من الجذور. ومتى حدث ذلك، يصبح من الصعب جدًا الإصلاح.#ROBO
عادةً ما تظهر الأسئلة الأكثر صعوبة في حالات الحافة، وحالات الحافة هي المكان الذي تصبح فيه الجدية مرئية. ماذا يحدث عندما يختلف المقيمون؟ ماذا يحدث عندما يكون الادعاء قابلًا للتحقق تقنيًا ولكنه مضلل من الناحية السياقية؟ ماذا يحدث عندما تتقارب نماذج متعددة على نفس الإجابة الخاطئة؟ ماذا يحدث عندما يتعلم الممثلون السيئون كيفية صياغة ادعاءات ضعيفة بطرق تبدو سهلة التحقق؟ هذه ليست مخاوف ثانوية. إنها التضاريس الحقيقية. المشروع الذي يفهم هذا لا يعامل حالات الحافة كاستثناءات نادرة. بل يتعامل معها كتحذيرات بشأن الشكل المستقبلي للاستخدام اليومي.
هذا النوع من التفكير يغير الطريقة التي تتشكل بها الثقة المجتمعية. في العديد من النظم البيئية، تُبنى الثقة بالضجيج. يُكافأ الناس على الحماس، لا على الملاحظة. ولكن في الأنظمة الأكثر جدية، تأتي الثقة من مراقبة السلوك بمرور الوقت. يلاحظ المستخدمون ما إذا كان المشروع صادقًا بشأن القيود. يلاحظون ما إذا كانت الفشل مخفية أو تم فحصها. يلاحظون ما إذا كانت الفريق تصبح دفاعية عندما يتم تحديها أو ما إذا كانت الانتقادات تعمل على تحسين النظام. بمرور الوقت، تهم هذه التفاصيل أكثر بكثير من الشعار أو الزخم المؤقت.
الثقة الحقيقية عادة ما تكون أكثر هدوءًا مما يتوقع الناس. إنها ليست حماسًا عاطفيًا. إنها ليست ولاءً أعمى. إنها الشعور الذي يأتي من رؤية نظام يتصرف بشكل متسق بما يكفي لتبدأ في فهم طبيعته. تعرف أين هو قوي. تعرف أين هو حذر. تعرف أين لا يزال يتردد. هذا هو نوع الثقة التي تكتسبها البنية التحتية. إنها لا تطلب أن تُعجب. إنها تطلب أن يتم اختبارها، وملاحظتها، وفي النهاية الاعتماد عليها لأنها تستمر في القيام بما تقول إنها ستفعله.
الجانب اللامركزي من ميرا مهم هنا أيضًا، ولكن ليس بالطريقة السطحية التي تُستخدم بها هذه الكلمة غالبًا. اللامركزية تصبح مهمة فقط عندما تحسن طريقة تشكيل الثقة. الشبكة ليست موثوقة تلقائيًا لمجرد أنها موزعة. السؤال الحقيقي هو ما إذا كانت هذه التوزيعة تخلق استقلالية، ومساءلة، ومقاومة للسيطرة من نقطة واحدة. في حالة التحقق من الذكاء الاصطناعي، هذا مهم جدًا. عندما تتحكم شركة واحدة في النموذج، والإنتاج، والتقييم، وتعريف ما يعتبر آمنًا أو صحيحًا، فإن المستخدم لا يشارك حقًا في الثقة. إنهم يرثونها.
تشير ميرا إلى نموذج مختلف. تقترح أن الثقة لا ينبغي أن تأتي معبأة بالكامل من سلطة مركزية واحدة. بل يجب أن تنشأ من عملية يمكن فيها التحدي والتحقق من الادعاءات من خلال شبكة أكثر انفتاحًا هيكليًا مما يسمح به هيكل الذكاء الاصطناعي الحالي. هذا لا يجعل النظام مثاليًا بشكل سحري. بل يجعل الثقة أكثر قابلية للتحدي، وهذا وحده له معنى. في مجال حيث يتم توحيد الكثير من النفوذ في عدد قليل من الفاعلين، فإن منح التحقق طبقة مستقلة خاصة به يبدو أقل كميزة وأكثر كتصحيح ضروري.
بالنسبة للمطورين، يغير هذا منطق العاطفة في البناء باستخدام الذكاء الاصطناعي. في الوقت الحالي، يستخدم العديد من البنائين الذكاء الاصطناعي بطريقة حذرة. يتركونه يساعد، ويقترح، ويختصر، ويكتب مسودات، ولكنهم يتوقفون عن منحها الكثير من المسؤولية لأن تكلفة الخطأ غير المكتشف لا تزال عالية جدًا. يمكن أن يغير بروتوكول مثل ميرا تلك العقلية مع مرور الوقت. ليس من خلال إزالة عدم اليقين تمامًا، ولكن من خلال جعل عدم اليقين أكثر قابلية للإدارة. بمجرد أن يصبح التحقق جزءًا من البيئة، يمكن للبنائين التفكير بشكل أقل كالمقامرين وأكثر كمصممي أنظمة مرة أخرى.
هذا التحول مهم لأنه ينقل المحادثة من القدرة إلى المسؤولية. من السهل أن نسأل ما إذا كان بإمكان الذكاء الاصطناعي القيام بشيء ما. لكن من المهم تمامًا أن نسأل ما إذا كان النظام المحيط يجعله آمنًا بما يكفي للاعتماد على تلك القدرة في الممارسة. السؤال الثاني أكثر نضجًا، وهو المكان الذي يتعين على الصناعة في النهاية الذهاب إليه. قد يجذب الذكاء الخام الانتباه، لكن الهيكل القابل للاعتماد هو ما يجعل الاعتماد على المدى الطويل ممكنًا. تعتبر ميرا مثيرة للاهتمام لأنها تبدو وكأنها تفهم أن الطبقة المفقودة ليست مجرد إنتاج أفضل. بل هي إنتاج يمكن مساءلته.
أقوى دليل على الصحة في بروتوكول مثل هذا لن يأتي أبدًا من الانتباه وحده. بل سيأتي من أنماط الاستخدام التي تكون أكثر هدوءًا وكشفًا. هل يعود الناس بعد تجربته؟ هل تحتفظ الفرق به داخل منتجاتها بعد أن يتلاشى الحماس؟ هل تصبح التكاملات أعمق مع مرور الوقت؟ هل تحل الشبكة مشكلة حقيقية جدًا تجعل المستخدمين يتوقفون عن الحاجة إلى الإقناع؟ هذه هي العلامات التي تفصل بين الأنظمة الدائمة والتجارب المثيرة للاهتمام. الاحتفاظ غالبًا ما يكون أكثر صدقًا من الضجيج لأنه يعكس قيمة حقيقية، وليس فضولًا مؤقتًا.
تخبر جودة التكامل قصة أكثر أهمية. يبدو أن الكثير من الأنظمة مثيرة للإعجاب حتى تواجه سير العمل الحقيقي. الفرق الحقيقية فوضوية. الجداول الزمنية ضيقة. البنية التحتية تنجو فقط إذا خففت الألم دون خلق ارتباك جديد. إذا كان ميرا يدمج بشكل جيد في المنتجات حيث تكون الموثوقية مهمة حقًا، فسوف تقول أكثر عن أهميتها على المدى الطويل من أي سرد عظيم يمكن أن يقال. التكاملات الجيدة هي شكل من أشكال الإثبات. إنها تظهر أن البروتوكول ليس مجرد جذاب من الناحية المفهومية، بل ضروري عمليًا.
إذا كانت البيئة تشمل رمزًا، فإن معناه على المدى الطويل يعتمد على ما إذا كان يقوي المسؤولية أو يشتت الانتباه عنها. الدور الجاد الوحيد لرمز في شبكة مثل هذه هو التوافق. يجب أن يساعد في تنسيق المشاركة، ومكافأة المساهمات الصادقة، و discouraging السلوك الضار، ومنح الإدارة بعض الهيكل الحقيقي مع مرور الوقت. إذا انحرف بعيدًا جدًا عن تلك الأغراض، يصبح ضجيجًا. ولكن إذا ظل مرتبطًا بالإشراف، فيمكنه أن يعمل كوسيلة للناس للتعبير عن إيمانهم ليس في الضجيج، ولكن في الأهمية طويلة الأجل للذكاء الموثق.
تعتبر الإدارة مهمة لنفس السبب. في بروتوكول يعتمد على الثقة، الإدارة ليست مجرد إدارة. إنها حيث يتم اختبار قيم النظام تحت الضغط. ستكون هناك دائمًا لحظات عندما يطالب النمو بالتسوية، عندما تغري الاعتماد السريع المشروع بتمويه الحدود، وتبسيط التفاصيل، أو المبالغة في الاستعداد. الإدارة هي ما يحدد ما إذا كان الانضباط ينجو من تلك اللحظات. على المدى الطويل، قد يهم ذلك أكثر من أي ميزة تقنية واحدة. المعايير سهلة الوصف في الفترات الهادئة. قيمتها الحقيقية تُظهر عندما يصبح الحفاظ عليها غير مريح.
ما يجعل ميرا مهمة بهدوء هو أنها لا تبدو مبنية حول الاستعراض. بل تبدو مبنية حول مشكلة تصبح أكثر ثقلًا كلما دخل الذكاء الاصطناعي في الحياة الجادة. بمجرد أن يبدأ الذكاء الاصطناعي في التأثير على البحث والمال والتنسيق وصنع القرار والحكومة والأتمتة، يتوقف التحقق عن كونها اختيارية. في تلك المرحلة، لم يعد الناس يريدون فقط إجابات. إنهم يريدون إجابات يمكن أن تنجو من التدقيق. إنهم يريدون أنظمة لا تطلب منهم الاختيار بين الفائدة والحذر في كل مرة. هذه هي الفجوة التي تحاول ميرا معالجتها.
وربما هذه هي الطريقة الأكثر صدقًا لفهم دورها. ليس كشيء يجعل الذكاء الاصطناعي يبدو سحريًا، ولكن كشيء يجعل الذكاء الاصطناعي يبدو مسؤولًا. هذه طموح أكثر هدوءًا، ولكنها أكثر نضجًا. الأمر لا يتعلق بجعل الآلة تبدو أذكى. بل يتعلق بجعل النظام المحيط بالآلة أقل إهمالًا. في مجال غالبًا ما يكافئ الثقة قبل أن يكون هناك موثوقية، فإن هذا النوع من التحول يهم أكثر مما يبدو في البداية.
لا يزال هناك الكثير مما يتعين إثباته في هذه الفئة. التحقق صعب. التنسيق اللامركزي صعب. الحكم البشري نفسه غالبًا ما يكون فوضويًا، وغير مكتمل، ومشروط بالسياق. لا ينجو أي بروتوكول من تلك الحقائق. ستظل ميرا مضطرة للتعامل مع الت disagreement، واللبس، ووجود أسطح الهجوم، والمقيمين غير الكاملين، والإغراء المستمر لتقديم يقين أكثر وضوحًا مما تسمح به الحقيقة. لا ينبغي تجاهل أي من ذلك. في الواقع، قد يكون الاعتراف بتلك الحدود أحد أقوى العلامات على أن المشروع يفهم المسؤولية التي يتولى تحملها.
إذا ظل هذا الانضباط سليمًا، يمكن أن تصبح شبكة ميرا ببطء واحدة من تلك الأنظمة التي يتوقف الناس عن الحديث عنها بمصطلحات درامية لأنها أصبحت مفيدة جدًا للدراما. ليست معجزة. ليست بديلاً للحكم البشري. ليست إصلاحًا نهائيًا لكل ما هو خاطئ في الذكاء الاصطناعي. مجرد شيء نادر وأكثر ديمومة: طبقة موثوقة في جزء من العالم الرقمي الذي قضى وقتًا طويلاً في الخلط بين الثقة والحق. وإذا وصلت إلى تلك النقطة، فلن يحدث ذلك لأنها صرخت بأعلى صوت. سيحدث ذلك لأنه، مع مرور الوقت، أعطت الناس سببًا للتنفس .🚀👍
