التوتر حقيقي، وهو يحمل لكم رسالة.

تشعر منظمات المجتمع المدني بالضغط. يسأل الممولون عن استراتيجيتكم في مجال الذكاء الاصطناعي. يستخدم فريقكم بالفعل أدوات لم توافقوا عليها رسميًا. تتطور التكنولوجيا بوتيرة أسرع من سياساتكم. وفوق كل ذلك، يبرز سؤال ملحّ: كيف نستخدم هذه الأدوات الفعّالة دون أن نفقد جوهر هويتنا؟

يتجلى هذا التوتر في معضلات محددة:

  • الكفاءة مقابل الأصالة: يمكن للذكاء الاصطناعي أن يساعدنا على إنجاز المزيد، ولكن هل يخدم "المزيد" رسالتنا أم أنه مجرد إضافة لوقتنا؟

  • الابتكار مقابل السلامة: نريد أن نكون سبّاقين، ولكن ليس على حساب المجتمعات التي نخدمها.

  • الوصول مقابل الخصوصية: يمكن للذكاء الاصطناعي أن يساعدنا في الوصول إلى عدد أكبر من الناس، ولكن ما هي البيانات التي نتخلى عنها لتحقيق ذلك؟

ليست هذه أسئلة ذات إجابات واضحة. إنها تقع على طيف واسع، وموقع مؤسستك سيختلف عن موقع غيرها. هذا ليس ضعفًا، بل هو طبيعة العمل القائم على القيم.

الشكل 1. طيف معضلات الذكاء الاصطناعي. رسم توضيحي يُظهر أمثلة على مختلف المعضلات التي تواجهها منظمات المجتمع المدني عند استخدام الذكاء الاصطناعي، مثل: المقاييس الضيقة مقابل النتائج العادلة، والفن البشري مقابل إبداعات الذكاء الاصطناعي (الثقافة، والمعنى، والجدوى الاقتصادية)، والسيادة مقابل الحوكمة العالمية (الجيوسياسة). رسم توضيحي من إعداد أيسغول غوزيل تورغوت. الترخيص: CC BY 4.0 Int.

طيف معضلات الذكاء الاصطناعي

مقاييس ضيقة مقابل نتائج عادلة
ربح قصير الأجل مقابل استدامة طويلة الأجل
قيمة المساهمين مقابل قيمة أصحاب المصلحة
السرعة مقابل الشمولية
الشفافية مقابل حماية الملكية الفكرية
المساءلة مقابل الاستقلالية (مثل المسؤولية القانونية والأخلاقية)
التحسين مقابل الاعتماد المعرفي
قابلية التوسع مقابل مراعاة السياق الدقيق
الأمن مقابل الخصوصية (مثل الكاميرات المدعومة بالذكاء الاصطناعي)
السيادة مقابل الحوكمة العالمية (الجيوسياسة)
الفن الإنساني مقابل إبداع الذكاء الاصطناعي (الثقافة والمعنى والجدوى الاقتصادية)
التقدم مقابل الكوكب (الأثر البيئي)

هل تشعر بعدم الارتياح؟ إنها إشارة. إنها تدلك على ما يهمك حقًا.

لماذا ينبغي لمنظمات المجتمع المدني أن تقود لا أن تتبع؟

هذا ما يخطئ فيه قطاع التكنولوجيا غالبا: بمجرد دخول الخوارزمية إلى العالم الحقيقي، لفرز طلبات التوظيف، واقتراح المحتوى، وتخصيص الموارد، فإنها تتوقف عن كونها نظامًا تقنيًا بحتًا. بل تصبح متشابكة مع العلاقات الإنسانية، والسلطة المؤسسية، وثقة المجتمع.

هذه ليست مشاكل هندسية، بل هي المشاكل التي تواجهها منظمات المجتمع المدني منذ عقود.

أنتم تعرفون بالفعل كيفية التعامل مع التعقيد، وكيفية الاستماع إلى الأصوات المهمشة، وكيفية اتخاذ قرارات قائمة على القيم في ظل عدم اليقين، وبموارد محدودة، وفي سياقات تكون فيها المخاطر إنسانية للغاية.

يحتاج نقاش حوكمة الذكاء الاصطناعي إلى هذه الخبرة تحديدًا.

ومع ذلك، غالبًا ما تنتظر منظمات المجتمع المدني على الهامش، ظنًا منها أن هذا نقاش خاص بالتقنيين، والشركات، والهيئات التنظيمية. إن خطر الانتظار حقيقي: سيضع الآخرون القواعد، وقد لا تعكس هذه القواعد قيمكم أو احتياجات المجتمعات التي تخدمونها.

الفرصة سانحةٌ بنفس القدر: بإمكان المجتمع المدني أن يُشكّل كيفية تطوير الذكاء الاصطناعي ونشره وإدارته، لا أن يكتفي بالرد على القرارات المتخذة في أماكن أخرى.

لا يتعلق الأمر هنا بأن تصبح خبيرًا في الذكاء الاصطناعي، بل يتعلق بأن تُصبح مرجعًا في صنع القرار بصفتك خبيرًا في القيم.

التوترات كمداخل للمبادئ

كيف تنتقل من التوتر إلى الوضوح؟

الجواب ليس في حلّ التوتر، بل في تسميته. فالتوترات تكشف عن قيمك، وقيمك، متى ما تمّ التعبير عنها بوضوح، تُصبح مبادئك.

لنأخذ على سبيل المثال مؤسسة أكاديمية خان التعليمية غير الربحية. عندما قدّمت خانميغو، أداة التعلّم المدعومة بالذكاء الاصطناعي، لم تبدأ بالمواصفات التقنية، بل بدأت بالمبادئ الأساسية، مثل "تحقيق الأهداف التعليمية"، و"استقلالية المتعلّم"، و"الشفافية والمساءلة". انبثقت هذه المبادئ من رؤية واضحة لما قد يحدث من أخطاء وما أرادت حمايته.

في إطار مبدأهم المتعلق بـ"تحقيق الأهداف التعليمية"، وضعوا ضوابط محددة: "توجد آليات لمنع استخدام الذكاء الاصطناعي لأغراض غير تعليمية". وعند تقييمهم لمخاطر الاستخدام غير المناسب، صنّفوها عالية، فبنوا استراتيجيات للتخفيف منها، بدءًا من أنظمة الإشراف، مرورًا بإشعارات أولياء الأمور، وصولًا إلى شروط الخدمة الواضحة.

كانت المبادئ هي الأساس، ثم جاءت التدابير العملية للحماية.

وبالمثل، لننظر إلى شبكة دولية تدعم رواد الأعمال الاجتماعيين، وهي ChangemakerXchange (CXC). بدأت رحلتهم في مجال الذكاء الاصطناعي بمحادثات صريحة حول التحديات. وكما جاء في بيانهم حول الذكاء الاصطناعي الواعي: "نحن ننتقد بشدة، وخاصة الذكاء الاصطناعي التوليدي، مدركين مخاطره: الأثر البيئي الهائل... وميله إلى تضخيم التحيز... وقدرته على تسطيح الإبداع البشري الفريد الذي يعتمد عليه عملنا".

انطلاقا من هذا التقييم الصادق، وضعوا مبادئ، مثل "الاستخدام الواعي": بحيث تبدو كالتالي: "الذكاء الاصطناعي ليس الخيار الافتراضي. قبل أي استخدام محتمل، وخاصةً مع الذكاء الاصطناعي التوليدي، نحاول التوقف وسؤال أنفسنا: هل الذكاء الاصطناعي ضروري حقًا لهذه المهمة؟ هل يتوافق حقًا مع قيمنا؟ ما الذي سأخسره عند استخدام هذه الأداة؟"

بدأت كلتا المنظمتين بالسؤال نفسه: ما الذي نهتم بحمايته؟ تختلف مبادئهما لأن رسالتيهما مختلفتان. وستكون رسالتك كذلك.

لستَ تبدأ من الصفر

إذا بدا لك تحديد مبادئ الذكاء الاصطناعي أمرًا شاقًا، فإليك خبرًا مطمئنا: يعمل مجتمع عالمي على هذا الأمر منذ سنوات.

منذ عام 2019، طورت منظمات مثل المفوضية الأوروبية، ومنظمة التعاون الاقتصادي والتنمية، واليونسكو، والمعهد الوطني للمعايير والتكنولوجيا (NIST) أطرًا للذكاء الاصطناعي الجدير بالثقة. وهذه هي المبادئ المشتركة التي انبثقت عن عملهم:

  • التدخل البشري والإشراف: يبقى البشر متحكمين في القرارات المصيرية.

  • الخصوصية وحوكمة البيانات: تُحمى البيانات الشخصية وتُستخدم بمسؤولية.

  • الشفافية: يفهم الناس كيفية عمل أنظمة الذكاء الاصطناعي وتأثيرها عليهم.

  • العدالة وعدم التمييز: لا يُرسخ الذكاء الاصطناعي التحيز أو يُنتج نتائج غير عادلة.

  • المساءلة: توجد مسؤولية واضحة عن القرارات وعواقبها.

  • الرفاه الاجتماعي والبيئي: يجب أن يُفيد الذكاء الاصطناعي الأفراد والمجتمعات مع تقليل الضرر على المجتمع والكوكب.

هذه الأطر هي نقطة انطلاق، وليست نموذجًا يُنسخ. العمل لا يعني تبني مبادئ الآخرين. يكمن جوهر الأمر في اكتشاف المبادئ الأكثر أهمية لمنظمتك، في سياقها، ولمجتمعاتها.

يختلف معنى مبدأ "الإنصاف" باختلاف رسالتك. فبالنسبة لمنظمة تُعنى باللاجئين، قد يعني الإنصاف ضمان عدم تراجع أداء أدوات الترجمة الآلية للغات الأقل شيوعًا، أو عدم إلحاق الفرز الآلي ضررًا بالمتقدمين من مناطق النزاع. أما بالنسبة لمنظمة تُعنى بالدفاع عن البيئة، فقد يعني الإنصاف ضمان عدم استبعاد المجتمعات ذات الدخل المحدود، الأكثر تضررا من التلوث، والأقل احتمالا لتصنيفها كـ"مانحين ذوي قيمة عالية" بواسطة الخوارزمية، وذلك من خلال استهداف الحملات المدعومة بالذكاء الاصطناعي.

الكلمة واحدة، أما التطبيق فهو متروك لك لتحديده.

لماذا تُعدّ الأصوات المتنوعة مهمة؟

من أكثر الأخطاء شيوعا التي ترتكبها المنظمات هو التعامل مع وضع المبادئ كممارسة قيادية. إذ تقوم مجموعة صغيرة بصياغة وثيقة، وتعميمها للحصول على التعليقات، ثم تُعلن إنجازها.

ينتج عن هذا النهج مبادئ تبدو جيدة على الورق، لكنها لا ترقى إلى مستوى الواقع. فالأشخاص الأقرب إلى رسالتك، مثل موظفي البرامج، وأفراد المجتمع، والعاملين في الخطوط الأمامية، غالبًا ما يرون مخاطر تغيب عن القيادة. كما أن لديهم حكمة بشأن ما تُقدّره المؤسسة حقًا، وليس فقط ما تطمح إلى تقديره.

انبثق بيان CXC من استماعٍ عميقٍ من جميع أعضاء فريقها. ويتم الحفاظ على إطار عمل أكاديمية خان من قِبل فريق عمل متعدد التخصصات يضم فرق المنتج والبيانات وبحوث المستخدمين، مما يضمن أن تُشكّل وجهات النظر المتنوعة نهجهم.

إن عملية وضع المبادئ لا تقل أهمية عن المبادئ نفسها. فعندما يُشارك الأفراد في تحديد ما يهم، يصبحون حماةً لتلك القيم، وليسوا مجرد متلقين لمذكرة سياسية.

مبادئ حية ومتجددة

إليكم حقيقة قد تُريحكم: المسودة الأولى لن تكون مثالية. ولا يُشترط لها أن تكون كذلك.

مبادئ الذكاء الاصطناعي المسؤول هي وثائق حية. فهي تتطور مع تغير التكنولوجيا، ومع تعمّق فهمكم، ومع تعلّمكم مما ينجح وما لا ينجح.

تلتزم CXC بمراجعة وثائق الذكاء الاصطناعي الخاصة بها كل ستة أشهر. وتقوم أكاديمية خان بتقييم إطار عملها باستمرار من خلال العروض التوضيحية، وحلقات التغذية الراجعة، وإشراك أصحاب المصلحة. وتتعامل كلتا المؤسستين مع مبادئهما لا كمنتجات نهائية، بل كحوارات مستمرة.

تلتزم CXC بمراجعة وثائق الذكاء الاصطناعي الخاصة بها كل ستة أشهر. وتقوم أكاديمية خان بتقييم إطار عملها باستمرار من خلال العروض التوضيحية، وحلقات التغذية الراجعة، وإشراك أصحاب المصلحة. وتتعامل كلتا المؤسستين مع مبادئهما لا كمنتجات نهائية، بل كحوارات مستمرة.

لا يعني هذا أن المبادئ غامضة أو غير ملتزمة، بل يعني أنها راسخة في الواقع، ومتجاوبة مع المشهد التكنولوجي المتغير باستمرار.

استهدف "النسخة الأولى"، لا "النسخة النهائية". الهدف هو البدء، لا الوصول إلى الكمال.

دعوة للبدء

إذا لم تُحدد مؤسستكم مبادئها الخاصة بالذكاء الاصطناعي بعد، فهذه دعوتكم للبدء.

ليس بوثيقة سياسات، ولا بقائمة مراجعة للامتثال، بل بحوار.

اجمعوا فريقكم. هيئوا بيئةً للصراحة، ليُفصح الجميع عن آمالهم ومخاوفهم وتحدياتهم. اسألوا: ما الذي نسعى لحمايته؟ ما الذي نرفض التنازل عنه؟ كيف يبدو الذكاء الاصطناعي المسؤول لمؤسسة مثل مؤسستنا؟

الإجابات موجودة بالفعل. مهمتكم هي إبرازها، وتحديدها، والالتزام بها معًا.

هذا عمل قيادي، ومنظمات المجتمع المدني مُهيأة له.

هل أنتم مستعدون للخطوة التالية؟

تابعوا موقع "هايف مايند" بانتظام على مدار الأسابيع الثمانية القادمة للاطلاع على المزيد من المقالات ضمن هذه السلسلة، بالإضافة إلى أدلة شاملة حول الاستخدام المسؤول للذكاء الاصطناعي لمنظمات المجتمع المدني.

ولمساعدتكم على الانتقال من مرحلة الإلهام إلى مرحلة العمل، أعددنا دليلاً عملياً مكملاً لهذه المقالة بعنوان: "خارطة طريق الذكاء الاصطناعي المسؤول لمنظمات المجتمع المدني".

سيُرشدكم هذا الدليل خلال العملية برمتها. سواء كنتم منظمة غير ربحية صغيرة تُعنى بالدفاع عن الحقوق أو منظمة دولية كبيرة، سيوفر لكم الدليل مساراً واضحاً من "يجب أن نفعل شيئاً حيال الذكاء الاصطناعي" إلى "هذه هي المبادئ التي ستُرشدنا".

المراجع ومصادر إضافية للقراءة

هذه المقالة هي الأولى في سلسلة "خارطة طريق الذكاء الاصطناعي المسؤول لمنظمات المجتمع المدني"، والتي طُوّرت كجزء من مشروع الذكاء الاصطناعي من أجل التغيير الاجتماعي ضمن برنامج النشاط الرقمي التابع لـ TechSoup، بدعم من Google.org.

نبذة عن الكاتبة

عائشة غول غوزيل، مهندسة حوكمة الذكاء الاصطناعي المسؤول، تُساعد المنظمات ذات الرسالة الواضحة على تحويل مخاوف الذكاء الاصطناعي إلى أنظمة جديرة بالثقة. تجمع مسيرتها المهنية بين القيادة الاجتماعية التنفيذية، بما في ذلك تأسيس زومبارا، أكبر شبكة لبنوك الوقت في العالم، والممارسة التقنية للذكاء الاصطناعي بصفتها مدققة معتمدة في مجال الذكاء الاصطناعي وعالمة بيانات سابقة. وهي تُقدم الإرشاد للمؤسسات خلال تحولات شاملة في حوكمة الذكاء الاصطناعي وتُجري عمليات تدقيق تقنية للذكاء الاصطناعي. تُدرّس في إليسافا وتُلقي محاضرات دولية حول المناهج التي تُركز على الإنسان في التكنولوجيا. للمزيد من المعلومات، تفضلوا بزيارة https://aysegulguzel.info أو اشتركوا في نشرتها الإخبارية "الذكاء الاصطناعي الذي تختاره" على الرابط: https://aysegulguzel.substack.com.