توقف قانون سلامة الأطفال في الاتحاد الأوروبي: عمالقة التكنولوجيا يحذرون من "فشل غير مسؤول"
لقد ظهرت فجوة قانونية كبيرة في الاتحاد الأوروبي بعد انتهاء صلاحية قانون "استثناء" حاسم سمح لشركات التكنولوجيا بفحص محتوى الاعتداء الجنسي على الأطفال (CSAM) على منصاتها. انتهى القانون، الذي يعد جزءاً من توجيه الخصوصية الإلكترونية في الاتحاد الأوروبي، في 3 أبريل 2026، بعد أن امتنع البرلمان الأوروبي عن التصويت لتمديده مشيراً إلى مخاوف تتعلق بالخصوصية.
في بيان مشترك نادر، أدانت جوجل وميتا وسناب ومايكروسوفت هذا التوقف كـ "فشل غير مسؤول"، محذرين من أن عدم القدرة على استخدام أدوات الكشف الأوتوماتيكية سيؤدي إلى زيادة حادة في التلاعب غير المكتشف، والابتزاز الجنسي، وتوزيع المحتوى غير القانوني. تدعم البيانات التاريخية هذه المخاوف؛ فقد أدى فجوة تشريعية مماثلة في عام 2021 إلى انخفاض بنسبة 58% في تقارير الاعتداء إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) خلال 18 أسبوعاً فقط.
نقاش الخصوصية مقابل الحماية
بينما يجادل دعاة الخصوصية بأن الفحص الأوتوماتيكي - الذي يُشار إليه غالباً باسم "تحكم الدردشة" - يعرض المراقبة الجماعية ويعرض أمان البيانات للخطر، يؤكد خبراء سلامة الأطفال أن هذه الأدوات تستخدم التعلم الآلي و"التجزئة" (البصمة الرقمية) لتحديد المحتوى غير القانوني المعروف دون تخزين بيانات المستخدمين الخاصة.
ماذا يحدث الآن؟
عدم اليقين القانوني: الشركات محاصرة في حالة عدم اليقين التنظيمي؛ فهي ممنوعة الآن من الفحص الاستباقي لكنها تبقى مسؤولة عن إزالة المحتوى غير القانوني بموجب قانون الخدمات الرقمية (DSA).
جهود طوعية: على الرغم من التوقف، تعهدت الشركات الكبرى في مجال التكنولوجيا بمواصلة جهود الفحص الطوعي إلى أقصى قدر من قدرتها القانونية.
مفاوضات مستمرة: يعلن البرلمان الأوروبي أن العمل على إطار قانوني دائم جارٍ، على الرغم من عدم تقديم جدول زمني للحل.
نظرًا لأن الجناة غالبًا ما يعملون عبر الحدود، يحذر الخبراء من أن هذه الفجوة التشريعية في أوروبا توفر مساحة "مظلمة" للمعتدين لاستهداف القصر مع تقليل خطر الكشف.
#ChildSafety #OnlineSafety #EU #BigTech #DigitalRights $BSB $BAS $ARTX