الذكاء الاصطناعي في الحكومات: بين الطموح والواقع

صورة المقال

الذكاء الاصطناعي في الحكومات: بين الطموح والواقع

يشهد العالم في السنوات الأخيرة ثورة رقمية غير مسبوقة، تتقدّمها تقنيات الذكاء الاصطناعي (AI) التي باتت تمسّ كل جانب من جوانب الحياة العامة والخاصة. وفي خضم هذا التحوّل السريع، بدأت الحكومات في مختلف أنحاء العالم تستكشف إمكانات الذكاء الاصطناعي لتحسين الأداء العام، وتعزيز جودة الخدمات المقدّمة للمواطنين، ودعم اتخاذ القرار على أسس أكثر علمية وفعالية.
لكن هذا المسار، رغم ما يحمله من فرص هائلة، يواجه أيضًا تحديات معقدة ومخاطر أخلاقية واجتماعية واقتصادية تتطلّب إدراكًا عميقًا وتخطيطًا استراتيجيًا دقيقًا.

إمكانات غير محدودة لخدمة الإنسان

يوفّر الذكاء الاصطناعي للحكومات أدوات قوية لتطوير خدماتها، بدءًا من أتمتة المعاملات اليومية، وصولًا إلى تحليل البيانات الضخمة والتنبؤ بالاحتياجات المستقبلية.
فهو يساعد المؤسسات العامة على تبسيط الإجراءات، وتسريع الاستجابة، وتحسين دقة القرارات الحكومية، إلى جانب تعزيز الشفافية وكشف حالات الاحتيال أو سوء الاستخدام.

وبحسب تقرير صادر عن منظمة التعاون الاقتصادي والتنمية (OECD)، فقد تم تحليل 200 حالة استخدام حكومية للذكاء الاصطناعي حول العالم. وأظهرت النتائج أن 57% من هذه الحالات تهدف إلى أتمتة الخدمات وتخصيصها للمواطنين، بينما تركز 45% منها على تحسين اتخاذ القرار والتنبؤ بالأحداث، في حين تُعنى 30% بتحسين الشفافية والمساءلة واكتشاف الشذوذات الإدارية.

ومن الأمثلة اللافتة التي أوردها التقرير مشروع DidaktorikaAI في اليونان، وهو مكتبة ذكية تضم أكثر من 50 ألف بحث ودراسة علمية تُستخدم لتسهيل الوصول إلى المعرفة الأكاديمية من قبل المواطنين والباحثين.

بين الفوائد والمخاطر: التوازن الصعب

رغم المزايا الكبيرة، لا يخلو استخدام الذكاء الاصطناعي من مخاطر.
ففي حال كانت البيانات المستخدمة منحازة أو ناقصة، قد تتخذ الأنظمة قرارات غير عادلة أو تمييزية. كما أن غياب الشفافية في كيفية عمل خوارزميات الذكاء الاصطناعي يهدد مبدأ المساءلة الحكومية، بينما قد يؤدي الاعتماد المفرط على الأنظمة الذكية إلى تعميق الفجوة الرقمية وفقدان ثقة المواطنين في المؤسسات العامة.

وتحذّر المنظمة من أن الذكاء الاصطناعي في الحكومات يُستخدم اليوم أكثر في التحليل وصنع القرار، وليس فقط في المهام الروتينية، ما يزيد من أهمية إدارة المخاطر الأخلاقية والعملياتية، مثل حماية الخصوصية، وضمان الأمن السيبراني، وتفادي الإقصاء الاجتماعي.

عوائق أمام التحوّل الرقمي الحكومي

تبيّن أن تبنّي الذكاء الاصطناعي في القطاع العام لا يزال متأخرًا عن القطاع الخاص، لأسباب متعددة.
فالكثير من المشاريع الحكومية لا تزال في مرحلة التجريب ولم تصل إلى التطبيق الواسع، ويُعزى ذلك إلى غياب أطر واضحة لقياس الأثر والعائد على الاستثمار، ما يجعل الحكومات مترددة في تخصيص الموارد المالية والتقنية لهذه المبادرات.

كما أن نقص المهارات الرقمية بين الموظفين العموميين يشكل تحديًا كبيرًا، إلى جانب صعوبة الوصول إلى بيانات موثوقة ومشتركة بين الجهات الحكومية.
وتُضاف إلى هذه العقبات الأنظمة القانونية القديمة والبنى التحتية التقنية المتهالكة والقيود المالية، التي تُبطئ من سرعة الابتكار وتزيد من النزعة إلى التحفظ في اعتماد التقنيات الجديدة.

كيف يمكن للحكومات تجاوز هذه التحديات؟

يرى تقرير الـ OECD أن الحل يكمن في تعزيز ركائز الذكاء الاصطناعي الموثوق في القطاع العام، عبر ما يُسمّى بـ "التمكِّنات السبعة" (Seven Enablers)، وهي:

  1. الحوكمة الرشيدة: وضع أطر تنظيمية وأخلاقية واضحة لاستخدام الذكاء الاصطناعي.

  2. البيانات: تحسين جودة البيانات الحكومية وتسهيل تبادلها بشكل آمن.

  3. البنية التحتية الرقمية: تحديث الأنظمة التقنية وربطها بشكل متكامل.

  4. المهارات: تدريب الموظفين العموميين على التعامل مع تقنيات الذكاء الاصطناعي.

  5. الاستثمار: تخصيص ميزانيات مستدامة لمشاريع التحول الرقمي.

  6. المشتريات الذكية: تبنّي آليات مرنة لاقتناء حلول الذكاء الاصطناعي من القطاع الخاص.

  7. الشراكات: التعاون مع الجامعات، والمؤسسات البحثية، والشركات الناشئة لتعزيز الابتكار المشترك.

هذه العوامل، مجتمعة، تمكّن الحكومات من تصميم أنظمة ذكاء اصطناعي آمنة وشفافة وعادلة، تُسهم في تحسين حياة المواطنين دون المساس بحقوقهم أو ثقتهم في مؤسسات الدولة.

نحو حوكمة رقمية أكثر إنسانية

في النهاية، لا يُعد الذكاء الاصطناعي غاية بحد ذاته، بل أداة لخدمة الإنسان والمجتمع.
وإذا ما تم استخدامه بطريقة مسؤولة، فإنه يستطيع أن يجعل الحكومات أكثر كفاءة وشفافية، ويعيد تشكيل العلاقة بين الدولة والمواطن على أساس الثقة والعدالة الرقمية.
لكن النجاح في ذلك يتطلب رؤية واضحة، واستثمارًا في الإنسان قبل التكنولوجيا، لأن التحول الرقمي الحقيقي يبدأ من العقول قبل الخوارزميات.

المصدر:

OECD “AI in the Public Sector: Opportunities, Risks, and Enablers for Trustworthy AI in Government.”

التعليقات

أضف تعليقًا