توجيهات السياسات بشأن الذكاء الاصطناعي للأطفال
الإصدار 2.0 | توصيات لبناء سياسات وأنظمة الذكاء الاصطناعي التي تدعم حقوق الطفل

نقاط مهمة
في إطار مشروع الذكاء الاصطناعي للأطفال، طوّرت اليونيسف توجيهات السياسات هذه لتعزيز حقوق الأطفال في سياسات وممارسات الذكاء الاصطناعي الحكومية وفي القطاع الخاص، ولزيادة الوعي حول الكيفية التي يمكن بها لأنظمة الذكاء الاصطناعي دعم هذه الحقوق أو تقويضها. تستكشف توجيهات السياسات أنظمة الذكاء الاصطناعي، وتنظر في الطرق التي تؤثر بها هذه السياسات على الأطفال.
انطلاقاً من اتفاقية حقوق الطفل، تقترح هذه التوجيهات تسعة متطلبات للذكاء الاصطناعي الذي يركز على الطفل:
- دعم نماء الأطفال ورفاههم
- ضمان تحقيق شمولٍ يضم جميع الأطفال ويحقق مصالحهم
- إعطاء الأولوية للإنصاف وعدم التمييز بين الأطفال
- حماية بيانات الأطفال وخصوصيتهم
- ضمان سلامة الأطفال
- توفير الشفافية، وإمكانية التفسير، والمُساءلة للأطفال
- تمكين الحكومات والشركات، وذلك من خلال تزويدها بالمعرفة في مجال الذكاء الاصطناعي وحقوق الأطفال
- إعداد الأطفال للتطورات الحالية والمستقبلية في الذكاء الاصطناعي
- خلق بيئة مواتية
لدعم لتنفيذ التوجيهات، نورد قائمة بالموارد التكميلية ومجموعة من أدوات التنفيذ العملية عبر الإنترنت، بما في ذلك:
- خارطة الطريق لواضعي السياسات
- إطار تطوير الذكاء الاصطناعي للأطفال
- دليل الذكاء الاصطناعي للوالدين
- دليل الذكاء الاصطناعي للمراهقين
للاطلاع على الكيفية التي طُبِّقت بها التوجيهات في الممارسة العملية، اقرأ عن دراسات الحالة الثماني.
لماذا الآن؟
الذكاء الاصطناعي هو أكثر بكثير من مجرد سيارات ذاتية القيادة ومساعدين أذكياء على هاتفك. تُستخدم أنظمة الذكاء الاصطناعي بشكلٍ متزايد من قِبَل الحكومات والقطاع الخاص، على سبيل المثال لتحسين توفير خدمات التعليم والرعاية الصحية والاجتماعية.
في حين يُعدّ الذكاء الاصطناعي قوةً للابتكار، فإنه يُشكل أيضًا مخاطر على الأطفال وحقوقهم، مثل خصوصيتهم وسلامتهم وأمنهم. ولكن معظم السياسات والاستراتيجيات والتوجيهات بشأن الذكاء الاصطناعي تذكر الأطفال بشكل سريع. للمساعدة في سد هذه الفجوة، دخلت اليونيسف في شراكة مع حكومة فنلندا لاستكشاف مناهج لحماية ودعم حقوق الطفل في عالم الذكاء الاصطناعي المتطوّر.
كيف تم إعداد التوجيهات
المشاورات العامة
ُطلِقت مسودة توجيهات السياسات (الإصدار 1.0) في سبتمبر 2020. سعت اليونيسف لاحقًا إلى الحصول على مٌدخلات من أصحاب المصلحة المهتمين بالمجالات المتعلقة بالذكاء الاصطناعي وحقوق الأطفال أو العاملين فيها. وشمل ذلك مُطوّري الذكاء الاصطناعي والقائمين بنشره، والشركات، والوكالات الحكومية، والمجتمع المدني، والمنظمات الدولية، والأكاديميين، والمواطنين من البالغين والأطفال. وقد دعونا أصحاب المصلحة للتعبير عن آرائهم حول مسودة التوجيهات وتقديم الملاحظات والتعليقات بحلول 16 أكتوبر 2020. (انظر إشعار الخصوصية.)
انقر هنا لمعرفة كيفية استجابتهم لمسودة التوجيهات.
تم تحليل هذه المُدخلات ودمجها في الإصدار 2.0. لضمان تواؤم أنظمة الذكاء الاصطناعي باستمرار مع حقوق الأطفال وأوضاعهم، ينبغي اعتبار هذه التوجيهات مساهمةً أوّلية في مجال الذكاء الاصطناعي الذي يركّز على الطفل. نأمل أن يستمر تكييف الأدلة التوجيهية المماثلة وإثراؤها بمرور الوقت بأفكار عملية.
دراسات الحالة والتنفيذ
لكي تتمكّن توجيهات السياسات من معالجة العديد من التعقيدات التي تكتنف التنفيذ، ينبغي تطبيقها من قِبَل واضعي السياسات والمنظمات العامة والشركات للتحقق من صحتها ولتكييفها محلياً. لذلك دعوْنا الحكومات وقطاع الأعمال لتجريب مسودة التوجيهات في مجالاتهم وتبادل النتائج التي توصّلوا إليها بشكلٍ مفتوح حول كيفية استخدامها، وما الذي حقق نجاحاً وما الذي لم ينجح، كي تُسهم تجاربهم الواقعية في تحسين الوثيقة. وبهذه الروح، عملت اليونيسف مع مجموعة من "الشركاء التجريبيين" من الحكومات والشركات لتطوير دراسات حالة حول كيفية تنفيذ كلٍّ منهم للتوجيهات: اقرأ دراسات الحالة. التزمت المنظمات التي جرّبت التوجيهات بهذه الشروط.
إذا استخدمتَ التوجيهات ونشرتَ تجاربك على هيئة دراسة حالة، يُرجى التأكد من تقاسُم نتائجك معنا عبر البريد الإلكتروني: .ai4children@unicef.org