يسعى الأردن بخطى حثيثة ليصبح في طليعة التحول الرقمي في الشرق الأوسط، وذلك من خلال مبادرات مثل "رؤية الأردن 2025" و"الاستراتيجية الوطنية لتكنولوجيا المعلومات والاتصالات"، والتي تهدف إلى تسخير التكنولوجيا لدفع عجلة النمو الاقتصادي وتحسين الخدمات العامة. ومع ذلك، فإن المخاطر المرتبطة بتسرب البيانات في أدوات الذكاء الاصطناعي التوليدية قد تقوض هذه الجهود.
فإذا ما تم الكشف عن بيانات حكومية حساسة، فقد يؤدي ذلك إلى تعطيل التقدم في قطاعات رئيسية مثل الحكومة الإلكترونية والضرائب والرعاية الصحية والتعليم، حيث يتم بشكل متزايد استخدام الذكاء الاصطناعي. و يكشف تقرير جديد صادر عن "هارمونيك سيكيوريتي" عن اتجاهات مثيرة للقلق في تسرب البيانات من خلال أدوات الذكاء الاصطناعي التوليدي (GenAI).
ويلقي التقرير، الذي يحمل عنوان "من الرواتب إلى البراءات: طيف البيانات المتسربة إلى أدوات الذكاء الاصطناعي التوليدي"، الضوء على كيفية مشاركة المعلومات الحساسة - بدءًا من بيانات العملاء إلى الرموز البرمجية المملوكة - عن غير قصد مع منصات الذكاء الاصطناعي مثل ChatGPT .Copilot Gemini. و بالنسبة للمؤسسات الحكومية الأردنية التي تستفيد من أدوات الذكاء الاصطناعي، فإن هذه النتائج تؤكد على المخاطر القانونية والأمنية والمنافسة.
فعلى سبيل المثال، في مجال الحكومة الإلكترونية، تُستخدم أدوات الذكاء الاصطناعي لتبسيط خدمات المواطنين، مثل معالجة طلبات الحصول على تراخيص وخدمات اجتماعية. وإذا ما تسربت بيانات حساسة للمواطنين، فقد يؤدي ذلك إلى سرقة الهوية والاحتيال وغيرها من أشكال الجرائم الإلكترونية، مما يقوض ثقة الجمهور في الخدمات الرقمية. وبالمثل، في مجال الرعاية الصحية، حيث يُستخدم الذكاء الاصطناعي لتحليل بيانات المرضى وتشخيص الأمراض، يمكن أن يؤدي خرق البيانات إلى المساس بخصوصية المرضى وانتهاك قوانين السرية الطبية.
ووفقًا للتقرير، يحتوي 8.5٪ من المطالبات المدخلة في أدوات الذكاء الاصطناعي التوليدي على بيانات حساسة. ويشمل ذلك بيانات العملاء (45.77٪)، مثل معلومات الفواتير ومعلومات الاعتماد، وبيانات الموظفين (26.83٪)، مثل الرواتب والمعلومات الشخصية التعريفية (PII)، وحتى البيانات القانونية والمالية (14.88٪)، بما في ذلك تفاصيل عمليات الدمج والاستحواذ. ومن المقلق أن 63.8٪ من مستخدميChatGPT اعتمدوا على النسخة المجانية، والتي غالبًا ما تفتقر إلى ميزات أمان قوية وقد تستخدم بيانات الإدخال لتدريب نماذج الذكاء الاصطناعي.
وبالنسبة للكيانات الحكومية الأردنية، التي تعتمد بشكل متزايد على الذكاء الاصطناعي في مهام مثل تلخيص المستندات والترجمة وتحليل البيانات، فإن هذه النتائج مثيرة للقلق بشكل خاص. فالكشف العرضي عن البيانات الحساسة يسلط الضوء على الحاجة إلى استخدام وضع مبادىء توجيهية ومعايير قانونية لاستخدام الذكاء الاصطناعي أو سن تشريعات تحدد وسائل وماهية أدوات الذكاء الاصطناعي التي يتم استخدامها، حيث يمكن أن يؤدي إلى انتهاكات السرية وانتهاكات اللوائح وفقدان ثقة الجمهور.
فعلى سبيل المثال، إذا تسربت بيانات حساسة للمواطنين أو اتصالات داخلية للحكومة، فقد يؤدي ذلك إلى عواقب قانونية بموجب قوانين حماية البيانات الأردنية وتضرر مصداقية الحكومة.
من التحديات الرئيسية في معالجة تسرب البيانات نقص الوعي بين الموظفين بمخاطر مشاركة المعلومات الحساسة مع أدوات الذكاء الاصطناعي. ويشدد تقرير هارمونيك على أهمية "تثقيف المستخدم" كمكون أساسي من مكونات إدارة الذكاء الاصطناعي. وبالنسبة للمؤسسات الحكومية الأردنية، يعني ذلك تنفيذ برامج تدريبية شاملة لتثقيف الموظفين حول ما يشكل بيانات حساسة. كما يجب أن يغطي التدريب كيفية استخدام أدوات الذكاء الاصطناعي بشكل مسؤول، بما في ذلك أهمية استخدام الإصدارات المتوفرة للشركات وتجنب الأدوات المجانية التي قد تفتقر إلى ضوابط أمان كافية.
وبالإضافة إلى ذلك، يجب تدريب الموظفين على تحديد محاولات التلاعب بهم لمشاركة البيانات الحساسة مع أطراف غير مصرح لهم والإبلاغ عنها. لذلك، فإن التبني السريع لأدوات الذكاء الاصطناعي يتطلب إطارًا تنظيميًا أكثر قوة. كما يمكن للحكومة أن تنظر في: فرض تقييمات تأثير حماية البيانات حيث (DPIA): تطلب من المؤسسات إجراء تقييمات DPIA قبل نشر أدوات الذكاء الاصطناعي لتحديد المخاطر المحتملة والتخفيف منها.
كما يجب تعزيز الشفافية في استخدام الذكاء الاصطناعي كأن تتطلب من المؤسسات الكشف عن كيفية استخدامها لأدوات الذكاء الاصطناعي وما هي التدابير المتخذة لحماية البيانات. ولا بد من التعاون مع شركات التكنولوجيا لتطوير حلول ذكاء اصطناعي آمنة ومصممة خصيصًا لاحتياجات المؤسسات الحكومية.
وعلى الرغم من ان تبني أدوات الذكاء الاصطناعي يوفر إمكانات هائلة للمؤسسات الحكومية الأردنية لتعزيز الكفاءة وتحسين تقديم الخدمات ودفع الابتكار. ومع ذلك، فإن هذه الإمكانات تأتي مع مخاطر كبيرة. فيمكن أن يؤدي تسرب البيانات من خلال أدوات الذكاء الاصطناعي إلى التزامات قانونية واختراقات أمنية وزعزعة السمعة، مما يقوض جهود التحول الرقمي في الأردن.
ولمواجهة هذه التحديات، يجب على الأردن تحقيق توازن بين تبني الذكاء الاصطناعي وحماية البيانات الحساسة. يتطلب ذلك نهجًا متعدد الأوجه يشمل أطرًا تنظيمية أقوى وتدابير أمان قوية وتدريبًا شاملاً للموظفين. من خلال اتخاذ خطوات استباقية للتخفيف من مخاطر تسرب البيانات، يمكن للأردن مواصلة قيادة المنطقة في الابتكار الرقمي مع حماية خصوصية وأمن مواطنيها ومؤسساتها.
0 تعليق