الذكاء الاصطناعي والأخلاقيات وتطور الحوكمة
مقدمة
- يتسم القرن الحادي والعشرون بشكل متزايد بالانتشار السريع للذكاء الاصطناعي (AI)، وهي أنظمة قادرة على أداء المهام التي تتطلب تقليديًا ذكاءً بشريًا، مثل التعلم وحل المشكلات واتخاذ القرارات (Russell & Norvig, 2020). فمن إحداث ثورة في التشخيص الطبي من خلال تحديد الأمراض بدقة غير مسبوقة (Chen & Asch, 2017) إلى تشغيل المركبات ذاتية القيادة والأدوات الإبداعية المتطورة، لا يمكن إنكار الإمكانات التحويلية للذكاء الاصطناعي. ومع ذلك، تصاحب هذه القوة أسئلة أخلاقية عميقة. فمع تزايد دمج أنظمة الذكاء الاصطناعي في نسيج المجتمع، تظهر مخاوف بشأن التحيز والمساءلة والخصوصية وطبيعة الاستقلالية البشرية ذاتها (Floridi et al., 2018). وبالتالي، فإن "الحوكمة" - وهي مجموعة القواعد والممارسات والمعايير والمؤسسات التي تشكل تطوير ونشر الذكاء الاصطناعي - تتعرض لضغوط هائلة للتكيف. يجادل هذا المقال بأن الخصائص الفريدة والتطور السريع للذكاء الاصطناعي يمثلان تحديات أخلاقية غير مسبوقة، مما يستلزم تطورًا جوهريًا في أطر الحوكمة لضمان الابتكار المسؤول وحماية رفاهية المجتمع. سوف نستكشف حقل الألغام الأخلاقي للذكاء الاصطناعي، وندرس لماذا تعتبر نماذج الحوكمة التقليدية غير كافية، ونناقش الأساليب الناشئة لحوكمة الذكاء الاصطناعي، ونحدد الركائز الأساسية لتنفيذها الفعال.
- الأخلاقيات و الذكاء الاصطناعي
التحديات الأخلاقية التي يطرحها الذكاء الاصطناعي متعددة الأوجه ومتجذرة بعمق في تصميمه وبياناته ونشره. واحدة من أكثر القضايا إلحاحًا هي التحيز والإنصاف. يتم تدريب أنظمة الذكاء الاصطناعي، لا سيما تلك القائمة على التعلم الآلي، على مجموعات بيانات ضخمة. إذا كانت مجموعات البيانات هذه تعكس تحيزات مجتمعية تاريخية تتعلق بالعرق أو الجنس أو الوضع الاجتماعي والاقتصادي، فإن نماذج الذكاء الاصطناعي ستتعلم حتمًا هذه التحيزات وتديمها، أو حتى تضخمها (Noble, 2018; O'Neil, 2016). يمكن أن يؤدي ذلك إلى نتائج تمييزية في مجالات حاسمة مثل خوارزميات التوظيف، وطلبات القروض، وحتى أنظمة العدالة الجنائية، حيث يمكن للأدوات التنبؤية المتحيزة أن تستهدف بشكل غير متناسب المجتمعات المهمشة (Angwin et al., 2016).
ويرتبط ارتباطًا وثيقًا بذلك تحدي المساءلة والشفافية، والذي يشار إليه غالبًا بمشكلة "الصندوق الأسود". تعمل العديد من نماذج الذكاء الاصطناعي المتقدمة، وخاصة شبكات التعلم العميق، بطرق مبهمة حتى لمبدعيها (Pasquale, 2015). عندما يتخذ نظام الذكاء الاصطناعي قرارًا ضارًا أو يرتكب خطأ، يصبح تحديد المسؤول - المطور، أو الناشر، أو مزود البيانات، أو الخوارزمية نفسها - معقدًا للغاية (Matthias, 2004). هذا النقص في الشفافية يعيق قدرتنا على فحص القرارات وتصحيح الأخطاء وتحديد المسؤولية.
تعد قدرة الذكاء الاصطناعي على انتهاك الخصوصية والمراقبة مصدر قلق كبير آخر. يمكن للأدوات التي تعمل بالذكاء الاصطناعي جمع وتحليل وتفسير كميات هائلة من البيانات الشخصية، من السلوك عبر الإنترنت إلى المعلومات البيومترية التي تلتقطها أنظمة التعرف على الوجه (Zuboff, 2019). وفي حين أن هذا يمكن أن يوفر فوائد مثل الخدمات المخصصة، فإنه يفتح أيضًا الباب أمام مستويات غير مسبوقة من المراقبة من قبل كل من الجهات الحكومية والشركات، مما قد يؤدي إلى تآكل الاستقلالية الفردية وتقويض حرية التعبير (Richards, 2013).
يثير الاستقلال الذاتي المتزايد لأنظمة الذكاء الاصطناعي أيضًا أسئلة أخلاقية أساسية حول السيطرة البشرية. مع تقدم الذكاء الاصطناعي من الأدوار المساعدة إلى اتخاذ قرارات مستقلة في بيئات معقدة، كما هو الحال في أنظمة الأسلحة ذاتية التشغيل أو إدارة البنية التحتية الحيوية، يتحول مركز التحكم (Arkin, 2009; Sparrow, 2007). يعد ضمان الإشراف البشري الهادف وقدرات التدخل أمرًا بالغ الأهمية، ومع ذلك فإن تحديد ما يشكل "هادفًا" لا يزال موضع نقاش مثير للجدل.
علاوة على ذلك، لا يمكن تجاهل التأثير الاقتصادي للذكاء الاصطناعي، لا سيما فيما يتعلق بفقدان الوظائف. فبينما من المتوقع أن يخلق الذكاء الاصطناعي وظائف جديدة، فمن المحتمل أيضًا أن يؤدي إلى أتمتة العديد من المهام التي يؤديها البشر حاليًا، مما قد يؤدي إلى اضطرابات كبيرة في سوق العمل وزيادة عدم المساواة إذا لم تتم إدارتها بشكل استباقي (Brynjolfsson & McAfee, 2014; Ford, 2015).
أخيرًا، يعد احتمال المخاطر الأمنية وإساءة استخدام الذكاء الاصطناعي مصدر قلق متزايد. يمكن تسليح الذكاء الاصطناعي لإنشاء هجمات إلكترونية أكثر تطوراً، أو توليد تزييف عميق مقنع لحملات التضليل الإعلامي، أو تمكين الأسلحة ذاتية التشغيل التي يمكن أن تعمل دون سيطرة بشرية، مما يشكل تهديدات جديدة للأمن الفردي والعالمي (Scharre, 2018; Brundage et al., 2018).
3.لماذا تقصر نماذج الحوكمة التقليدية عن مواكبة الذكاء الاصطناعي
تكافح نماذج الحوكمة والتنظيم التقليدية، التي غالبًا ما يتم تطويرها لتقنيات أبطأ حركة أو قطاعات محددة جيدًا، لمواكبة الخصائص الفريدة للذكاء الاصطناعي. يمثل عدم تطابق الوتيرة تحديًا أساسيًا؛ إذ تتطور قدرات الذكاء الاصطناعي بسرعة أكبر بكثير مما يمكن أن تستوعبه عادة العمليات التداولية للهيئات التشريعية والتنظيمية (Marchant, 2011). فبحلول الوقت الذي يتم فيه سن لائحة ما، قد تكون التكنولوجيا التي تهدف إلى حوكمتها قد تحولت بالفعل.
كما أن نطاق الذكاء الاصطناعي وانتشاره يتحديان التنظيم القطاعي التقليدي. فعلى عكس التقنيات المحصورة في صناعات محددة، يعد الذكاء الاصطناعي تقنية ذات أغراض عامة ولها تطبيقات في كل مجال تقريبًا، من الرعاية الصحية والتمويل إلى النقل والترفيه (Kaplan & Haenlein, 2019). هذا التأثير الشامل للقطاعات يجعل مناهج الحوكمة المنعزلة غير فعالة.
إن التعقيد والغموض المتأصلين في العديد من أنظمة الذكاء الاصطناعي، كما نوقش سابقًا، يتحديان آليات الرقابة التقليدية التي تعتمد على قابلية الفحص وسلاسل السببية الواضحة (Pasquale, 2015). قد يفتقر المنظمون إلى الخبرة الفنية أو الأدوات اللازمة لتقييم الأعمال الداخلية للذكاء الاصطناعي المتطور بشكل كافٍ.
علاوة على ذلك، فإن تطوير ونشر الذكاء الاصطناعي عالميان بطبيعتهما. تتدفق الأبحاث والمواهب والبيانات وخدمات الذكاء الاصطناعي عبر الحدود الوطنية، مما يجعل أطر الحوكمة الوطنية البحتة محدودة في نطاقها وفعاليتها (Hickok, 2021). يمكن أن تؤدي الأساليب التقليدية المختلفة إلى"سباق نحو القاع" إذا لم يتم تنسيقها.
أخيرًا، تعني الطبيعة الديناميكية والتكرارية للذكاء الاصطناعي، لا سيما أنظمة التعلم الآلي التي تتعلم وتتكيف باستمرار من البيانات الجديدة، أن القواعد الثابتة لمرة واحدة سرعان ما تصبح قديمة أو غير ذات صلة (Rahwan, 2018). يجب أن تكون الحوكمة قابلة للتكيف مثل التكنولوجيا نفسها.
- مناهج جديدة لحوكمة الذكاء الاصطناعي
إدراكًا لهذه القيود، يظهر مشهد جديد لحوكمة الذكاء الاصطناعي، يتميز بمناهج أكثر مرونة وتكيفًا وتعاونًا. اكتسبت الحوكمة القائمة على المبادئزخمًا كبيرًا، حيث أصدرت العديد من المنظمات والحكومات مبادئ أخلاقية رفيعة المستوى للذكاء الاصطناعي. غالبًا ما تؤكد هذه المبادئ على قيم مثل الإنصاف والشفافية والمساءلة والخصوصية والأمن والتركيز على الإنسان (OECD, 2019; European Commission, 2019a). وفي حين توفر المبادئ بوصلة أخلاقية حاسمة، فإن ترجمتها إلى ممارسات ملموسة لا تزال تمثل تحديًا.
يعد التنظيم القائم على المخاطر اتجاهًا بارزًا آخر، ويتجلى في قانون الذكاء الاصطناعي للاتحاد الأوروبي (European Commission, 2021). يصمم هذا النهج كثافة الحوكمة وفقًا لمستوى المخاطر التي تشكلها تطبيقات الذكاء الاصطناعي المحددة، ويفرض متطلبات أكثر صرامة على الأنظمة "عالية المخاطر" (مثل تلك المستخدمة في البنية التحتية الحيوية أو إنفاذ القانون أو التوظيف) مع السماح بمزيد من التساهل للتطبيقات منخفضة المخاطر.
يتزايد الاعتراف بالتعاون بين أصحاب المصلحة كأمر ضروري. تتطلب حوكمة الذكاء الاصطناعي الفعالة مدخلات وتعاونًا من الحكومات ومطوري الصناعة والباحثين الأكاديميين ومنظمات المجتمع المدني والهيئات الدولية (Floridi et al., 2018; World Economic Forum, 2019). يمكن لمثل هذه التعاونات أن تعزز الفهم المشترك، وتشجع أفضل الممارسات، وتبني شرعية أوسع لأطر الحوكمة.
كما أن الحاجة إلى آليات حوكمة تكيفية ورشيقة واضحة أيضًا. ويشمل ذلك مناهج مثل "الصناديق التنظيمية"، التي تسمح بتجربة ابتكارات الذكاء الاصطناعي تحت إشراف تنظيمي، وصنع السياسات التكرارية التي يمكن تحديثها مع اتضاح التكنولوجيا وتأثيراتها (Katz, 2017; Coglianese, 2019).
ويجري أيضًا استكشاف الحلول التقنية للحوكمة. يتضمن ذلك تطوير أدوات وأساليب لدمج الاعتبارات الأخلاقية مباشرة في أنظمة الذكاء الاصطناعي. تشمل الأمثلة تقنيات الذكاء الاصطناعي القابل للتفسير (XAI) التي تهدف إلى تحسين الشفافية (Adadi & Berrada, 2018; Gunning et al., 2019)، وتقنيات تعزيز الخصوصية (PETs) التي تحمي البيانات، والأدوات الخوارزمية للكشف عن التحيز والتخفيف منه.
يعد تطوير المعايير وآليات الاعتماد طريقًا آخر. يمكن للمعايير الفنية أن توفر معايير مرجعية لسلامة الذكاء الاصطناعي وأمنه وأدائه الأخلاقي، في حين يمكن أن توفر مخططات الاعتماد وسيلة للإشارة إلى أن نظام الذكاء الاصطناعي يلبي معايير معينة معترف بها، وبالتالي بناء الثقة (IEEE, 2019).
أخيرًا، يعد التعاون الدولي والتنسيق أمرًا حيويًا. نظرًا للطبيعة العالمية للذكاء الاصطناعي، تُبذل جهود من خلال منتديات مثل مجموعة السبع، ومجموعة العشرين، ومنظمة التعاون الاقتصادي والتنمية، والشراكة العالمية للذكاء الاصطناعي (GPAI) لتعزيز الحوار ومواءمة مناهج الحوكمة عبر الحدود، على الرغم من استمرار وجود اختلافات جيوسياسية وقيمية كبيرة (Fjeld et al., 2020).
- الركائز الأساسية للحوكمة الفعالة للذكاء الاصطناعي في الممارسة العملية
تتطلب ترجمة هذه الأساليب المتطورة إلى ممارسة فعالة التركيز على عدة ركائز أساسية. تعد حوكمة البيانات القويةأمرًا أساسيًا، حيث تعتمد أنظمة الذكاء الاصطناعي بشكل كبير على البيانات. ويشمل ذلك ضمان جودة البيانات وتمثيلها وحماية الخصوصية والمصادر الأخلاقية (World Economic Forum, 2020).
تبرز مراجعة الخوارزميات كممارسة حاسمة. يتضمن ذلك تقييمات مستقلة لأنظمة الذكاء الاصطناعي للتحقق من التحيز والإنصاف والدقة والأمن والامتثال للمبادئ الأخلاقية (Mittelstadt, 2019a; Raji et al., 2020). يمكن لعمليات المراجعة أن تعزز الشفافية والمساءلة.
يعد تحديد أدوار واضحة للإشراف والتدخل البشري أمرًا بالغ الأهمية، خاصة بالنسبة لتطبيقات الذكاء الاصطناعي عالية المخاطر. وهذا يعني إنشاء آليات للبشر لمراقبة قرارات الذكاء الاصطناعي، وفهم منطقها، والتدخل أو تجاوزها عند الضرورة (Shneiderman, 2020).
يعد التعليم وبناء القدرات أمرًا بالغ الأهمية في جميع أنحاء المجتمع. ويشمل ذلك تدريب مطوري الذكاء الاصطناعي على الأخلاقيات، وتزويد صانعي السياسات بالمعرفة اللازمة لاتخاذ قرارات مستنيرة، ورفع مستوى الوعي العام بالذكاء الاصطناعي لتعزيز لغة التواصل (Winfield & Jirotka, 2018).
كما أن تعزيز لغة التواصل العامة والمشاركة أمر ضروري أيضًا. يمكن للمحادثات المفتوحة حول التأثيرات المجتمعية للذكاء الاصطناعي وتداعياته الأخلاقية وخيارات الحوكمة أن تساعد في ضمان توافق تطوير الذكاء الاصطناعي مع القيم المجتمعية وبناء الثقة العامة (Cave et al., 2019).
6.التحديات
على الرغم من التقدم المحرز، لا تزال هناك تحديات كبيرة على طريق الحوكمة الفعالة للذكاء الاصطناعي. يمثل الإنفاذ والامتثال عقبات رئيسية؛ فالانتقال من المبادئ رفيعة المستوى إلى الممارسات القابلة للتحقق والإنفاذ أمر معقد (Jobin et al., 2019). كيف نضمن التزام المنظمات حقًا بالمبادئ التوجيهية الأخلاقية؟
يمثل الموازنة بين الابتكار والتنظيم معضلة مستمرة. يمكن للتنظيم المفرط في التوجيه أو المرهق أن يخنق تطوير الذكاء الاصطناعي المفيد، في حين أن الرقابة غير الكافية يمكن أن تؤدي إلى أضرار كبيرة (Calo, 2017). يعد إيجاد التوازن الصحيح أمرًا بالغ الأهمية.
تظل "مشكلة مواكبة الوتيرة" ثابتة. يجب تصميم آليات الحوكمة لتكون مرنة بما يكفي لمواكبة التطورات التكنولوجية السريعة دون أن تصبح قديمة بعد فترة وجيزة من التنفيذ (Marchant et al., 2011).
يمثل تحقيق الإجماع العالمي وتجاوز التوترات الجيوسياسية تحديًا هائلاً آخر. قد يكون لدى الدول والسياقات الثقافية المختلفة وجهات نظر متباينة حول أخلاقيات الذكاء الاصطناعي وأولويات الحوكمة، مما قد يؤدي إلى مناظر تنظيمية مجزأة أو متضاربة (Dafoe, 2018).
أخيرًا، يجب أن تتعامل حوكمة الذكاء الاصطناعي مع "المجهول المعلوم" (التطورات المستقبلية المتوقعة) و "المجهول المجهول" (الاختراقات غير المتوقعة وعواقبها). يتطلب هذا بناء أطر حوكمة مرنة واستباقية قادرة على معالجة المخاطر الناشئة (Bostrom, 2014).
- 7. خاتمة
يمثل تقاطع الذكاء الاصطناعي والأخلاقيات والحوكمة أحد أهم التحديات وأكثرها تعقيدًا في عصرنا. فمع تزايد قوة أنظمة الذكاء الاصطناعي وانتشارها، ستزداد المعضلات الأخلاقية التي تطرحها حدة، مما يتطلب تطورًا مستمرًا في مناهج الحوكمة لدينا. النماذج التقليدية غير مناسبة لسرعة الذكاء الاصطناعي ونطاقه وتعقيده. وبدلاً من ذلك، يظهر نموذج جديد للحوكمة - نموذج قائم على المبادئ، وقابل للتكيف مع المخاطر، ومتعدد أصحاب المصلحة، ومنسق دوليًا.
إن الرحلة نحو حوكمة مسؤولة للذكاء الاصطناعي ليست وجهة بل عملية مستمرة من التعلم والتكيف والتعاون. وتتطلب جهدًا منسقًا من الباحثين والمطورين وصانعي السياسات والشركات والجمهور لضمان تطوير ونشر الذكاء الاصطناعي بطريقة آمنة وعادلة وشفافة ومتوافقة مع القيم الإنسانية. ومن خلال التشكيل الاستباقي لمشهد الحوكمة، يمكننا السعي لتسخير الإمكانات الهائلة للذكاء الاصطناعي من أجل الخير مع التخفيف من مخاطره، وتوجيه مساره في نهاية المطاف نحو مستقبل يفيد البشرية جمعاء.
الأسئلة الشائعة حول الذكاء الاصطناعي والأخلاقيات والحوكمة
1.س: ما هو الذكاء الاصطناعي بالضبط في سياق هذه المناقشة؟
ج: في هذا السياق، يشير الذكاء الاصطناعي (AI) إلى أنظمة الكمبيوتر والخوارزميات المصممة لأداء المهام التي تتطلب عادةً ذكاءً بشريًا. ويشمل ذلك قدرات مثل التعلم من البيانات، والتعرف على الأنماط، وإجراء التنبؤات أو القرارات، وفهم اللغة الطبيعية، والتفاعل مع العالم المادي. ينصب التركيز على أنظمة الذكاء الاصطناعي التي لها تأثير مجتمعي كبير وبالتالي تثير أسئلة أخلاقية وحوكمية.
2.س: ما هي أكبر التحديات الأخلاقية التي يطرحها الذكاء الاصطناعي؟
ج: تشمل التحديات الأخلاقية الرئيسية ما يلي:
* التحيز والإنصاف: يمكن لأنظمة الذكاء الاصطناعي أن تتعلم وتضخم التحيزات المجتمعية القائمة الموجودة في بيانات التدريب الخاصة بها، مما يؤدي إلى نتائج تمييزية.
* المساءلة والشفافية: قد يكون من الصعب فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي المعقدة للقرارات (مشكلة "الصندوق الأسود") وتحديد المسؤولية عندما تسبب ضررًا.
* الخصوصية والمراقبة: يتيح الذكاء الاصطناعي جمع البيانات وتحليلها على نطاق واسع، مما يثير مخاوف بشأن المراقبة وإساءة استخدام المعلومات الشخصية.
* الاستقلالية والتحكم البشري: مع تزايد استقلالية الذكاء الاصطناعي، تظهر أسئلة حول الحفاظ على سيطرة بشرية ذات مغزى، خاصة في التطبيقات الحرجة.
* فقدان الوظائف: قد تؤدي الأتمتة التي يقودها الذكاء الاصطناعي إلى تغييرات كبيرة في سوق العمل.
* الأمن وإساءة الاستخدام: يمكن استخدام الذكاء الاصطناعي لأغراض ضارة، مثل إنشاء هجمات إلكترونية متطورة أو حملات تضليل إعلامي.
- س: لماذا لا يمكننا ببساطة استخدام القوانين واللوائح القائمة لحوكمة الذكاء الاصطناعي؟
ج:غالبًا ما تقصر نماذج الحوكمة التقليدية لأن الذكاء الاصطناعي:
* يتطور بسرعة كبيرة:تفوق وتيرة تطوير الذكاء الاصطناعي السرعة المعتادة للعمليات التشريعية.
* واسع الانتشار: يؤثر الذكاء الاصطناعي على كل قطاع تقريبًا، مما يجعل التنظيم المنعزل الخاص بقطاع معين أمرًا صعبًا.
* يمكن أن يكون غامضًا: يتحدى تعقيد بعض أنظمة الذكاء الاصطناعي أساليب الرقابة التقليدية.
* عالمي: يتجاوز تطوير ونشر الذكاء الاصطناعي الحدود الوطنية، مما يتطلب تعاونًا دوليًا.
* ديناميكي: يمكن لأنظمة الذكاء الاصطناعي أن تتعلم وتتغير بمرور الوقت، مما يجعل القواعد الثابتة قديمة بسرعة. - س: ما هي بعض الطرق الجديدة التي نحاول من خلالها حوكمة الذكاء الاصطناعي؟
ج:تشمل الأساليب المتطورة ما يلي:
* الحوكمة القائمة على المبادئ:وضع مبادئ أخلاقية رفيعة المستوى (مثل الإنصاف والشفافية والمساءلة) لتوجيه تطوير الذكاء الاصطناعي.
* التنظيم القائم على المخاطر: تكييف شدة القواعد بناءً على المخاطر المحتملة لتطبيق الذكاء الاصطناعي (مثل قواعد أكثر صرامة للذكاء الاصطناعي عالي المخاطر).
* التعاون متعدد أصحاب المصلحة: إشراك الحكومات والصناعة والأوساط الأكاديمية والمجتمع المدني في تشكيل الحوكمة.
* الحوكمة التكيفية والرشيقة: إنشاء أطر مرنة مثل "الصناديق الرملية التنظيمية" التي يمكن أن تتكيف مع التغيرات التكنولوجية.
* الحلول التقنية: تطوير أدوات مثل الذكاء الاصطناعي القابل للتفسير (XAI) وخوارزميات الكشف عن التحيز لبناء الأخلاقيات في الأنظمة.
* المعايير والشهادات: إنشاء معايير مرجعية وعمليات اعتماد لضمان تلبية أنظمة الذكاء الاصطناعي لمعايير أخلاقية وسلامة معينة.
5.س: من المسؤول إذا اتخذ نظام ذكاء اصطناعي قرارًا ضارًا؟
ج: هذا أحد التحديات الأساسية في حوكمة الذكاء الاصطناعي، وغالبًا ما يشار إليه باسم "فجوة المساءلة". يمكن أن تقع المسؤولية المحتملة على عاتق المطورين، أو المنظمة التي تنشر الذكاء الاصطناعي، أو مزودي البيانات المستخدمة لتدريبه، أو حتى المستخدم، اعتمادًا على الظروف. يعد إنشاء خطوط مساءلة واضحة للقرارات التي يحركها الذكاء الاصطناعي هدفًا رئيسيًا لأطر الحوكمة المتطورة.
- س: كيف يمكن أن تصبح أنظمة الذكاء الاصطناعي متحيزة، ولماذا تمثل مشكلة؟
ج:تتعلم أنظمة الذكاء الاصطناعي، وخاصة تلك التي تستخدم التعلم الآلي، من البيانات. إذا كانت البيانات تعكس تحيزات تاريخية (مثل نقص تمثيل مجموعات معينة، قرارات سابقة متحيزة)، فسيتعلم الذكاء الاصطناعي هذه التحيزات. هذه مشكلة لأنها يمكن أن تؤدي إلى نتائج غير عادلة أو تمييزية في مجالات حاسمة مثل طلبات القروض، وعمليات التوظيف، والعدالة الجنائية، والرعاية الصحية، مما يديم ويزيد من حدة عدم المساواة المجتمعية. - س: ما الذي يمكن للأفراد أو المنظمات فعله لتعزيز الذكاء الاصطناعي المسؤول؟
ج:
* الأفراد:يمكنهم تثقيف أنفسهم حول الذكاء الاصطناعي وتداعياته، والدعوة إلى سياسات ذكاء اصطناعي مسؤولة، ودعم المنظمات العاملة في مجال أخلاقيات الذكاء الاصطناعي، وأن يكونوا مستهلكين نقديين للخدمات التي تعتمد على الذكاء الاصطناعي.
* المنظمات:يمكنها تبني مبادئ أخلاقية للذكاء الاصطناعي، والاستثمار في حوكمة بيانات قوية، وتنفيذ مراجعة الخوارزميات، وإعطاء الأولوية للشفافية والقابلية للتفسير، وتدريب موظفيها على أخلاقيات الذكاء الاصطناعي، والمشاركة في حوارات متعددة أصحاب المصلحة. يجب على المطورين العمل بنشاط للتخفيف من التحيز وضمان أن أنظمتهم آمنة وتحترم الخصوصية. - س: هل من الممكن فعلاً حوكمة الذكاء الاصطناعي بفعالية نظرًا لسرعة تغيره؟
ج:على الرغم من صعوبة الأمر، إلا أنه ليس مستحيلاً. من المرجح أن تتطلب حوكمة الذكاء الاصطناعي الفعالة تحولًا بعيدًا عن وضع القواعد البطيء والثابت نحو مناهج أكثر مرونة وتكيفًا وتعاونًا. ويشمل ذلك المراقبة المستمرة، وصنع السياسات التكرارية، والتعاون الدولي، والتركيز على بناء الاعتبارات الأخلاقية في دورة حياة تطوير الذكاء الاصطناعي نفسها. إنها عملية مستمرة وليست وجهة ثابتة.
9.س: ما الفرق بين أخلاقيات الذكاء الاصطناعي وقانون/تنظيم الذكاء الاصطناعي؟
ج:
* تشير أخلاقيات الذكاء الاصطناعي إلى المبادئ والقيم الأخلاقية التي توجه تصميم وتطوير ونشر الذكاء الاصطناعي. غالبًا ما تكون هذه طموحة وتوفر إطارًا لما ينبغي القيام به.
* يشير قانون/تنظيم الذكاء الاصطناعي إلى القواعد الرسمية والقوانين والأطر القانونية التي تسنها الحكومات لحوكمة الذكاء الاصطناعي. هذه قابلة للإنفاذ وتحدد ما يجب أو لا يجب القيام به.
من الناحية المثالية، يستنير قانون وتنظيم الذكاء الاصطناعي بالاعتبارات الأخلاقية، ويترجم المبادئ الأخلاقية إلى قواعد قابلة للتنفيذ والتطبيق.
10.س: كيف يمكننا بناء الثقة في أنظمة الذكاء الاصطناعي؟
ج: يتطلب بناء الثقة في الذكاء الاصطناعي نهجًا متعدد الأوجه. تشمل العناصر الرئيسية ضمان أن تكون أنظمة الذكاء الاصطناعي:
* موثوقة وآمنة: تؤدي عملها على النحو المنشود دون التسبب في ضرر غير مقصود.
* عادلة وغير تمييزية: تعامل الأفراد والجماعات بإنصاف.
* شفافة وقابلة للتفسير: تسمح للمستخدمين بفهم كيفية اتخاذ القرارات.
* خاضعة للمساءلة: لديها آليات واضحة للمسؤولية عند حدوث أخطاء.
* آمنة وتحترم الخصوصية: تحمي البيانات وتمنع إساءة استخدامها.
تعد أطر الحوكمة الفعالة حاسمة لتعزيز هذه الصفات، وبالتالي، ثقة الجمهور.
- References
Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on explainable artificial intelligence (XAI). IEEE Access, 6, 52138–52160. https://doi.org/10.1109/ACCESS.2018.2870052 - Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016, May 23). Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- Arkin, R. C. (2009). Governing lethal behavior in autonomous robots. CRC Press.
- Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
- Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., Dafoe, A., Scharre, P., Zeitzoff, T., Filar, B., Anderson, H., Roff, H., Allen, G. C., Steinhardt, J., Flynn, C., Ó hÉigeartaigh, S., Beard, S., Belfield, H., Farquhar, S., … Amodei, D. (2018). The malicious use of artificial intelligence: Forecasting, prevention, and mitigation. Future of Humanity Institute, University of Oxford. https://maliciousaireport.com
- Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. W. W. Norton & Company.
- Calo, R. (2017). Artificial intelligence policy: A primer and roadmap. U.C. Davis Law Review, 51(2), 399–435.
- Cave, S., Dihal, K., & Dillon, S. (Eds.). (2019). AI narratives: A history of imaginative thinking about intelligent machines. Oxford University Press.
- Chen, J. H., & Asch, S. M. (2017). Machine learning and prediction in medicine — beyond the peak of inflated expectations. New England Journal of Medicine, 376(26), 2507–2509. https://doi.org/10.1056/NEJMp1702071
- Coglianese, C. (2019). Regulating new technologies. Edward Elgar Publishing.
- Dafoe, A. (2018). AI governance: A research agenda. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3130428
- European Commission. (2019a). Ethics guidelines for trustworthy AI. High-Level Expert Group on Artificial Intelligence. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
- European Commission. (2021, April 21). Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. COM(2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
- Fjeld, J., Achten, N., Hilligoss, H., Nagy, A., & Srikumar, M. (2020). Principled artificial intelligence: Mapping consensus in ethical and rights-based approaches to principles for AI. Berkman Klein Center Research Publication No. 2020-1. https://dash.harvard.edu/handle/1/42160420
- Floridi, L., Cowls, J., Beltramini, M., Saunders, D., & Vayena, E. (2018). An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. AI & Society, 33(4), 689–707. https://doi.org/10.1007/s00146-018-0841-5
- Ford, M. (2015). Rise of the robots: Technology and the threat of a jobless future. Basic Books.
- Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S., & Yang, G. Z. (2019). XAI—Explainable artificial intelligence. Science Robotics, 4(37), eaay7120. https://doi.org/10.1126/scirobotics.aay7120
- Hickok, E. (2021). Governing AI: A new international consensus. Information Technology and Innovation Foundation.
- (2019). Ethically aligned design: A vision for prioritizing human well-being with autonomous and intelligent systems (Version 2). IEEE Standards Association. https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf
- Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399. https://doi.org/10.1038/s42256-019-0088-2
- Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62(1), 15–25. https://doi.org/10.1016/j.bushor.2018.08.004
- Katz, Y. (2017). Manufacturing an artificial intelligence revolution. arXiv preprint arXiv:1708.01850.
- Marchant, G. E. (2011). The growing gap between emerging technologies and legal-ethical oversight: The pacing problem. Science and Engineering Ethics, 17(1), 19–33. https://doi.org/10.1007/s11948-009-9191-y
- Marchant, G. E., Allenby, B. R., & Herkert, J. R. (Eds.). (2011). The growing gap between emerging technologies and legal-ethical oversight: The pacing problem. Springer.
- Matthias, A. (2004). The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology, 6(3), 175–183. https://doi.org/10.1007/s10676-004-3422-1
- Mittelstadt, B. D. (2019a). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1(11), 501–507. https://doi.org/10.1038/s42256-019-0114-4
- Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.
- O'Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.
- (2019). Recommendation of the Council on Artificial Intelligence. OECD/LEGAL/0449. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
- Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.
- Rahwan, I. (2018). Society-in-the-loop: Programming the algorithmic social contract. Ethics and Information Technology, 20(1), 5–14. https://doi.org/10.1007/s10676-017-9430-8
- Raji, I. D., Smart, A., White, R. N., Mitchell, M., Gebru, T., Hutchinson, B., Smith-Loud, J., Theron, D., & Barnes, P. (2020). Closing the AI accountability gap: Defining an end-to-end framework for internal algorithmic auditing. In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (pp. 33–44). ACM. https://doi.org/10.1145/3351095.3372873
- Richards, N. M. (2013). The dangers of surveillance. Harvard Law Review, 126(7), 1934–1965.
- Russell, S. J., & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.
- Scharre, P. (2018). Army of none: Autonomous weapons and the future of war. W. W. Norton & Company.
- Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495–504. https://doi.org/10.1080/10447318.2020.1741118
- Sparrow, R. (2007). Killer robots. Journal of Applied Philosophy, 24(1), 62–77. https://doi.org/10.1111/j.1468-5930.2007.00346.x
- Winfield, A. F. T., & Jirotka, M. (2018). Ethical governance is essential to building trust in robotics and artificial intelligence systems. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2133), 20180085. https://doi.org/10.1098/rsta.2018.0085
- World Economic Forum. (2019). AI governance: A holistic approach to implement ethics into AI. WEF White Paper. https://www.weforum.org/whitepapers/ai-governance-a-holistic-approach-to-implement-ethics-into-ai
- World Economic Forum. (2020). Data governance in the age of AI: A new framework for the responsible use of data. WEF White Paper.
اضافة تعليق