Skip to content
الشركة
عن فينارا
الثقافة والبيئة
القيم ومبادئ القيادة
أعضاء مجلس الإدارة
فريق القيادة
تواصل معنا
الحلول والخدمات
الابتكار والبحث والقيادة
الابتكار والبحث
الرؤى والريادة الفكرية
العمل في فينارا
En
يناير 12, 2026

الأمن في عصر الذكاء الاصطناعي: منظور قيادي

بقلم Nesma Sadek

بقلم: نسمة صادق

الأمن في عصر الذكاء الاصطناعي يتجاوز بكثير المفهوم التقليدي للأمن كما كنا نعرفه سابقًا.

أول مرة قدّم لي نظام ذكاء اصطناعي إجابة واحدة واثقة لمسألة معقدة، لم يكن شعوري هو الارتياح، بل الشك: كيف يمكنني التأكد من أن هذه الإجابة صحيحة؟

تلك اللحظة كشفت عن حقيقة جوهرية: لقد فتح الذكاء الاصطناعي بُعدًا جديدًا للأمن. لم نعد نكتفي بحماية الأنظمة، بل أصبحنا نحمي سلامة القرارات التي لا يمكننا تفسيرها بالكامل.

يمكن تشبيه الأمر على النحو التالي: الأمن التقليدي يشبه تأمين مبنى بالكاميرات وأجهزة الإنذار. أما أمن الذكاء الاصطناعي فيشبه التأكد من أن الشخص الذي يراقب تلك الكاميرات يتخذ قرارات سليمة عمّا يراه. قد تكون البنية التحتية محصّنة تمامًا، لكن إذا كان صانع القرار مُخترقًا أو متأثرًا، فإن النظام بأكمله ينهار.

ومع ازدياد ذكاء أنظمة الذكاء الاصطناعي واستقلاليتها، تتطور كذلك الآليات المصممة لاستغلالها. فالهجمات لم تعد تستهدف البنية التحتية فقط، بل البيانات، والنماذج، والقرارات التي تؤثر فيها هذه الأنظمة.

في قطاع التكنولوجيا المالية، وخاصة في البيئات شديدة التنظيم مثل القطاع المصرفي، لا يُعدّ الثقة العمياء في الذكاء الاصطناعي خيارًا مطروحًا.

الذكاء الاصطناعي يفرض نوعًا جديدًا من مخاطر القيادة

تفترض نماذج الأمن التقليدية أن الأنظمة حتمية وتنتج مخرجات يمكن التنبؤ بها. وعندما يحدث سلوك غير متوقع، يكون ذلك مؤشرًا على وجود خلل يمكن التحقيق فيه.

الذكاء الاصطناعي ينسف هذا الافتراض من جذوره.

فهو لا يقتصر على تنفيذ التعليمات، بل يتعلم ويستنتج ويولّد نتائج لم يتم تعريفها صراحة. وغالبًا ما يعجز القادة عن تحديد ما يُعد «مخرجًا طبيعيًا»، مما يصعّب التمييز بين التكيف السليم والتأثير الخفي غير المقصود.

وهذا يخلق ملف مخاطر مختلفًا تمامًا.

يصبح الذكاء الاصطناعي سطح هجوم قويًا؛ يمكن تسميم البيانات، والتلاعب بالسياق، وتوجيه المخرجات تدريجيًا، بما يشكّل القرارات على المدى الطويل، بينما يبدو النظام ظاهريًا وكأنه يعمل بشكل طبيعي.

أخطر الإخفاقات في الأنظمة المعتمدة على الذكاء الاصطناعي ليست تلك التي توقف العمليات، بل تلك التي تؤثر بهدوء في القرارات في الاتجاه الخاطئ.

تخيل نموذجًا لتقييم الجدارة الائتمانية يبدأ تدريجيًا في تغيير تقييمه للمخاطر نتيجة التلاعب الخفي ببيانات التدريب. يبدو النظام سليمًا، لكن قرارات الإقراض تنحرف بمرور الوقت من حكم سليم إلى تحيز خفي. وعندما يتم اكتشاف الأمر، تكون آلاف القرارات قد تأثرت بالفعل.

لهذا السبب، لا يمكن التعامل مع أمن الذكاء الاصطناعي على أنه مجرد امتداد للأمن السيبراني التقليدي. فالمخاطر لم تعد تقنية بحتة، بل أصبحت استراتيجية. 

لماذا تُعد القابلية للتفسير مطلبًا قياديًا

غالبًا ما يُساء تصنيف الذكاء الاصطناعي القابل للتفسير على أنه شأن تقني أو تنظيمي فقط، بينما هو في الواقع ضرورة قيادية.

فمن دون قابلية للتفسير، لا يمكن الطعن في القرارات، ولا التحقيق في الحوادث، ولا الدفاع عن النتائج بشكل موثوق أمام الجهات الرقابية أو العملاء أو مجالس الإدارات.

القابلية للتفسير لا تعني فهم كل تفصيل فني، بل تعني الشفافية: معرفة العوامل التي تقود القرار، والتعرّف على السلوك غير الطبيعي، والقدرة على الاستجابة بثقة.

لا يمكنك حوكمة ما لا تستطيع تفسيره.

ولا يمكنك تأمين ما لا تفهمه.

جعل قرارات الذكاء الاصطناعي مرئية وقابلة للدفاع

الخبر الجيد هو أن التقنيات القادرة على معالجة هذه التحديات موجودة وتتطور بسرعة.

الخطوة الأولى هي جعل كل قرار فردي للذكاء الاصطناعي قابلاً للتفسير. تقنيات تفسير النماذج مثل SHAP وLIME  تفكك أي تنبؤ إلى العوامل المساهمة فيه. فعندما يرفض نموذج ائتماني طلبًا ما، تُظهر هذه الأدوات بدقة المتغيرات التي أثّرت في القرار ومدى تأثير كل منها. وعند دمجها مع آليات الكشف الآلي عن التحيز، تتحول القرارات الغامضة إلى تفسيرات قابلة للدفاع أمام الجهات الرقابية.

لكن القابلية للتفسير وحدها لا تكفي. يجب مراقبة أنظمة الذكاء الاصطناعي بشكل مستمر أثناء التشغيل. فلوحات المتابعة اللحظية ترصد سلوك النماذج مقارنة بالأنماط المتوقعة، وتُشير إلى أي انحراف غير معتاد. وعندما يتغير السلوك، لا تكتفي هذه الأنظمة بإطلاق تنبيه، بل تشرح ما الذي تغير ولماذا.

وتُكمل سجلات التدقيق المنظمة هذه المنظومة من خلال توثيق ليس فقط القرار المتخذ، بل سلسلة المنطق الكاملة التي قادت إليه. وتقوم المؤسسات الرائدة بدمج القابلية للتفسير في أنظمة الذكاء الاصطناعي منذ اليوم الأول، لضمان إمكانية إعادة بناء النتائج والدفاع عنها عند الحاجة.

وعلى مستوى الحوكمة، تضمن نماذج التعاون بين الإنسان والآلة أن يظل الذكاء الاصطناعي أداة دعم للقرار، لا صانعًا له. يقدّم الذكاء الاصطناعي توصيات مدعومة بأسباب واضحة، يقوم الخبراء بمراجعتها والتحقق منها، مما يحافظ على الحكم البشري مع توسيع قدرات الذكاء الاصطناعي.

وتذهب التقنيات المتقدمة أبعد من ذلك. فالتعلّم الاتحادي يتيح كشف الاحتيال عبر مؤسسات متعددة دون كشف البيانات الحساسة، بينما يجمع الذكاء الاصطناعي العصبي-الرمزي بين الاستدلال القائم على القواعد والتعلم العميق لتحقيق التفسير والقوة التنبؤية معًا.

ويعزز الإطار التنظيمي هذا التوجه؛ إذ تشترط اتفاقيات بازل، وقانون الذكاء الاصطناعي الأوروبي، وإطار NIST أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير والتدقيق وخاضعة للحوكمة منذ التصميم. والرواد الذين يطبقون هذه الممارسات اليوم يتقدمون بخطوات على متطلبات الامتثال.

والنتيجة هي أن المؤسسات تستبدل القلق بالمساءلة، وتحد من التحيز الخفي عبر التحقق المستمر، وتعزز الامتثال وثقة العملاء في آن واحد.

الطريق إلى الأمام

القطاع المصرفي يقوم على الثقة والمساءلة وقابلية التدقيق. والمؤسسات التي تنجح في توظيف الذكاء الاصطناعي هي تلك التي تدمج الشفافية في بنيتها المعمارية منذ اليوم الأول.

المنظمات التي ستقود المرحلة المقبلة هي التي تتعامل مع القابلية للتفسير ليس كمتطلب امتثال شكلي، بل كميزة تنافسية حقيقية. فهي قادرة على الدفاع عن قراراتها أمام الجهات الرقابية، وشرح نتائجها للعملاء، وإثبات لمجالس إداراتها أن الذكاء الاصطناعي مُحكَم الحوكمة، لا مجرد أداة مُطبقة.

والسؤال الحقيقي هو: هل تستطيع الإجابة بثقة عن الأسئلة الثلاثة التالية؟

  • هل تعرف كل موضع يساعد فيه الذكاء الاصطناعي في اتخاذ قرارات داخل مؤسستك؟
  • هل يمكنك تفسير كيف ولماذا تُتخذ هذه القرارات؟
  • هل تعرف من يتحمل المسؤولية عندما تكون هذه القرارات خاطئة؟

إذا لم يكن الأمر كذلك، فهنا تبدأ رحلة العمل. والأدوات اللازمة للقيام بها أصبحت جاهزة اليوم.

الرؤى والريادة الفكرية

مقالات مرتبطة

بقلم Fady Abouelghit
مارس 18, 2026

مفارقة الإنتاجية في عصر الذكاء الاصطناعي : طريقة استخدامك للذكاء الاصطناعي أهم من مجرد استخدامه

بقلم Ahmed Hani
مارس 4, 2026

لماذا يحتاج الذكاء الاصطناعي التوليدي في التكنولوجيا المالية إلى أكثر من مجرد نموذج لغوي جيد؟

Linkedin-in

فينارا

عن فينارا
الثقافة والبيئة
أعضاء مجلس الإدارة
فريق القيادة
القيم ومبادئ القيادة
الابتكار والبحث
الرؤى والريادة الفكرية
الحلول والخدمات
العمل في فينارا
تواصل معنا

© 2026 فينارا. جميع الحقوق محفوظة.

الشروط والأحكام
إشعار الخصوصية
الشركة
عن فينارا
الثقافة والبيئة
القيم ومبادئ القيادة
أعضاء مجلس الإدارة
فريق القيادة
تواصل معنا
الحلول والخدمات
الابتكار والبحث والقيادة
الابتكار والبحث
الرؤى والريادة الفكرية
العمل في فينارا

Driving Innovation in FinTech