شركة "ديلويت" تقدم 3 توصيات لاستخدام الذكاء الاصطناعي في القطاع العام

الأربعاء 20 فبراير 2019
دبي - مينا هيرالد:

على هامش انعقاد القمة العالمية للحكومات في دبي من 10 ولغاية 12 فبراير 2019، أصدرت ديلويت تقريرها الجديد حول النواحي الأخلاقية في استخدام الذكاء الاصطناعي الذي تستعرض فيه الذكاء الاصطناعي وفوائده على الحكومات وجهات القطاع العام المختلفة، بالإضافة إلى التحديات والنواحي  الأخلاقية في مجال الذكاء الاصطناعي.

في هذا الإطار، صرّح راشد بشير، الشريك المسؤول عن قطاع الخدمات الاستشارية للقطاع العام في ديلويت الشرق الأوسط، قائلاً: ” لقد بدأت الحكومات و القطاع العام في مختلف أنحاء العالم  تشهد فعلياً ثمار استثمارها في تكنولوجيا الذكاء الاصطناعي. فبدءاً من خفض التكاليف وانتهاءً بمعرفة وتنبؤ معاملات الغش والاحتيال قبل وقوعها، يتميز الذكاء الاصطناعي بقدرته على تحسين الخدمات الحكومية إلى جانب تفعيل قدرة موظفي الحكومة على الابتكار واتخاذ قرارات أكثر دقة بناءً على فهم أوضح للوقائع“.

وأضاف بشير موضحاً:” بالرغم من اتجاه مختلف المؤسسات الاجتماعية والسياسية والاقتصادية في دولنا بصورة متزايدة نحو استخدام تقنيات الذكاء الاصطناعي، إلا أنها لم تبادر بعد إلى تحديد العواقب المترتبة على استخدامها بوضوح. فقد أثار التطور السريع للذكاء الاصطناعي كثيراً من المخاوف الأخلاقية، ما يدفعنا إلى إعادة رسم معالم مستقبل العمل والمجتمع. من هذه المخاوف، على سبيل المثال: هل سيخسر المزيد من الموظفين وظائفهم بسبب اتساع مجالات استخدام الذكاء الاصطناعي في مؤسساتنا الحكومية؟ وكيف نضمن استخدام هذه الأجهزة التقنية دون أن تتسبب بأي أذى للآخرين؟ وكيف نستطيع التحكم بأحد أنظمة الذكاء الاصطناعي إذا بلغ من التعقيد ما يفوق فهمنا له؟"

وأضاف بشير قائلاً: "هذه المسائل وغيرها من الأسئلة المماثلة المهمة التي يجب على الحكومات والقطاع العام بشكل عام التفكير بها من أجل مقاربة موضوع الفرص والتحديات الأخلاقية للذكاء الاصطناعي. علماَ أن القطاع العام يضطلع بدور أساسي حيث يستطيع القيام بمهمة مزدوجة؛ فمن ناحية أولى، يستطيع العمل كنموذج يُحتذى به في مراعاة المسائل الأخلاقية لاستخدام الذكاء الاصطناعي والقيام بدور الهيئة الناظمة لضمان مقاربة المسائل الأخلاقية بطريقة شاملة ومتكاملة بعيداً عن الحلول الجزئية“.

ويتضمن تقرير ديلويت عدة توصيات للحكومات، ومنها:

  • التركيز على الشفافية والثقة في الذكاء الاصطناعي: يجب تصميم أنظمة الذكاء الاصطناعي بناءً على مبادئ تتيح تقييم هذه الأنظمة بشكل موضوعي لتحقيق الشفافية والمساءلة.
  • التنبؤ بتأثيرات تطور الذكاء الاصطناعي: حث الحكومات على تطوير إطار لتقييم المخاطر وأدوات تنبؤ يمكنها أن تتوقع مسبقاً التأثيرات المترتبة على استخدام أنظمة الذكاء العام الاصطناعي بما في ذلك التأثيرات النفسية على الموظفين والمجتمع.
  • إنشاء هيئة للمعايير العالمية: خلال فترة زمنية قصيرة، أعلن عدد متزايد من الدول عن إصدار إرشادات أخلاقية متعددة بخصوص استخدام أنظمة الذكاء الاصطناعي. ويكمن التحدي الراهن في وضع ميثاق أخلاقي للذكاء الاصطناعي بحيث يكون على نطاق عالمي ومقبولاً على المستوى الدولي.

بدوره، صرّح علي هاشمي، المسؤول عن الذكاء الاصطناعي في ديلويت الشرق الأوسط، قائلاً:” في حين تبرز الحاجة إلى قيام الحكومات بوضع ميثاق أخلاقي يحدد التبعات الأخلاقية والتنظيمية المترتبة على استخدام تقنيات الذكاء الاصطناعي، نعتقد أن صياغة نموذج تنظيمي عالمي لتصميم أنظمة الذكاء الاصطناعي وتطويرها واستعمالها ضمن إطار من المسؤولية أصبح ضرورة ملحة. ومن الأفضل أن تتولى هذه المهمة هيئة معايير عالمية متعددة التخصصات. كما يجب أن تتواصل الحكومات ومؤسسات القطاع العام مع الأطراف الخارجية المعنية بالذكاء الاصطناعي، أي الحكومات والمؤسسات الأخرى، وذلك لبناء شراكات تهدف إلى تطوير ميثاق أخلاقي فاعل. “

أخبار مرتبطة