كشف بحثنا الأخير، الذي شمل استطلاعات رأي في تسع دول ودراسات حالة مُوسّعة، عن حقيقة مُرّة: 8% فقط من منظمات المجتمع المدني لديها سياسة خاصة بالذكاء الاصطناعي، ونحو 40% منها تُعاني في ضمان خصوصية البيانات عند استخدام هذه الأدوات. وكما أوضح لنا أحد ممثلي غانا، فإنّ الوصول إلى سياسة وإرشادات واضحة ليس ترفًا فحسب، بل هو ضروري للبقاء والنمو المسؤول.
خارطة الطريق هذه هي استجابتنا - عملية مُفصّلة لمنظمات المجتمع المدني المُستعدة للانتقال من حالة عدم اليقين إلى العمل المُوجّه بقيم واعية.
دليل "خارطة طريق الذكاء الاصطناعي المسؤول لمنظمات المجتمع المدني" مُخصّص لمنظمات المجتمع المدني الراغبة في الانتقال من القلق بشأن الذكاء الاصطناعي إلى العمل الهادف.
سواءً كنتَ منظمة غير ربحية صغيرة تُعنى بالدفاع عن الحقوق، أو منظمة دولية كبيرة، أو مؤسسة مجتمعية، فإنّ عملية تحديد مبادئ الذكاء الاصطناعي المسؤول لديكَ واحدةٌ في جوهرها: تبدأ بحوارٍ صريح وتنتهي بالتزامٍ مشترك.
يستند هذا الدليل إلى منهجية طوّرها المؤلف واختبرها من خلال العمل المباشر مع منظماتٍ مختلفة، وتُعرض حالاتها في الدليل كأمثلةٍ عملية.
خارطة طريق الذكاء الاصطناعي المسؤول لمنظمات المجتمع المدني ما ستحصل عليه بنهاية هذه العملية:
فهم واضح لعلاقة مؤسستك الحالية بالذكاء الاصطناعي: الأدوات التي تستخدمها، والتحديات التي تواجهها، والقيم المعنية.
مجموعة من 3 إلى 7 مبادئ للذكاء الاصطناعي المسؤول، مُرتبة حسب الأولوية، ومُصممة خصيصًا لرسالتك وسياقك.
تعريفات تجعل هذه المبادئ ذات معنى وقابلة للتطبيق لفريقك.
زخم نحو هياكل وسياسات الحوكمة (والتي سنتناولها في أدلة لاحقة من هذه السلسلة) / (والتي ستجدها هنا).
المنهجية: الاستكشاف ← الإنشاء ← البناء.
يتبع هذا الدليل منهجية من ثلاث مراحل:
الاستكشاف: إتاحة المجال لرؤية الواقع - رسم خريطة لبيئة الذكاء الاصطناعي الحالية، وتحديد التحديات، وجمع الخبرات المتوفرة (اللوائح، والمعايير، وقيم مؤسستك الحالية). يمكن إنجاز هذه المرحلة كتحضير قبل اجتماع فريقك.
الإنشاء: مساحة تعاونية غير منظمة - حيث يتم فيها دمج الأفكار في مبادئ، وتحديد هياكل الحوكمة، وتوثيق السياسات. هنا يعمل الفريق معا.
البناء: التنفيذ والتطبيق العملي - حيث تلتقي المبادئ بالممارسة من خلال تقييم المخاطر، واستراتيجيات التخفيف، وضوابط الحوكمة المستمرة. هنا تتولى هياكل الحوكمة التي حددتها زمام المبادرة، مع تعيين أفراد أو فرق مسؤولة عن المراقبة والمساءلة المستمرة.
ملاحظة حول السرعة: لا يمكن إنجاز هذا العمل على عجل. إن تحديد المبادئ في اجتماع واحد مدته ساعة واحدة ينتج عنه وثائق تُهمل. خصص وقتًا للتحضير (للاطلاع) بالإضافة إلى جلسة واحدة على الأقل مدتها 90 دقيقة للإبداع التعاوني، مع وقت متابعة للتلخيص والتحسين. هذا الاستثمار مُجدٍ. ستُرشد هذه المبادئ كل قرار تتخذه مؤسستك بشأن الذكاء الاصطناعي.
خلال الأسابيع القادمة، تفضل بزيارة Hive Mind لقراءة قسم "الاستكشاف، والإنشاء، والبناء" من الدليل لمساعدتك أنت ومسؤول أمن المعلومات لديك على وضع مبادئ الذكاء الاصطناعي المسؤول.
خارطة طريق خطة النشر
المرحلة الأولى: الاستشكاف
الجزء الأول: تهيئة الأرضية - وضع الأساس لتدقيق الذكاء الاصطناعي.
المرحلة الثانية: الإنشاء
الجزء الثاني: تحديد مبادئك وتعريفها - تحديد الأولويات.
الجزء الثالث: التطبيق العملي - تحويل الأفكار إلى واقع.
الجزء الرابع: تحديد مسؤولية حوكمة الذكاء الاصطناعي - استخدام "شجرة الحوكمة" لتحديد المسؤوليات.
الجزء الخامس: ما هي سياسة الذكاء الاصطناعي؟ - مقال تمهيدي حول صياغة موقفك بشكل رسمي.
الجزء السادس: ترجمة المبادئ إلى قواعد - دليل عملي لكتابة خطة عملك الداخلية.
المرحلة الثالثة: البناء
الجزء السابع: مقدمة في تقييم المخاطر - فهم بيئة السلامة.
الجزء الثامن: دليل تقييم المخاطر - أدوات متعمقة للمراقبة المستمرة والمساءلة.
ملاحظاتكم تهمنا
ما رأيكم في هذا النص؟ خصص 30 ثانية لمشاركة ملاحظاتك ومساعدتنا في إنشاء محتوى هادف للمجتمع المدني!
نموذج الملاحظات سيأتي قريباً!
تقدم هذه المقالة سلسلة بعنوان "خارطة طريق الذكاء الاصطناعي المسؤول لمنظمات المجتمع المدني"، والتي طُوّرت ضمن مشروع "الذكاء الاصطناعي من أجل التغيير الاجتماعي" التابع لبرنامج النشاط الرقمي في TechSoup، بدعم من Google.org.