%87من الموظفين في مصر يستخدمون الذكاء الاصطناعي في العمل

كشفت دراسة حديثة أجرتها شركة كاسبرسكي بعنوان “الأمن السيبراني في العمل معارف الموظفين وسلوكياتهم” عن ارتفاع ملحوظ في استخدام أدوات الذكاء الاصطناعي داخل بيئة العمل في
مصر، حيث أظهرت النتائج أن 87% من الموظفين يستخدمون تلك الأدوات في أداء مهامهم اليومية.
وأوضحت الدراسة أن انتشار الذكاء الاصطناعي التوليدي لم يعد مجرد ظاهرة تقنية.
بل أصبح جزء أساسي من دورة العمل داخل الشركات، سواء في كتابة النصوص والتقارير أو إعداد البريد الإلكتروني.
أو تحليل البيانات أو إنشاء الصور والفيديوهات باستخدام التقنيات الذكية.
فجوة في التدريب على أمن الذكاء الاصطناعي
رغم الانتشار الواسع لأدوات الذكاء الاصطناعي، إلا أن الدراسة أظهرت نقص واضح في مستوى التدريب الأمني لدى المستخدمين.
فقط 46% من الموظفين الذين يستخدمون أدوات الذكاء الاصطناعي تلقوا تدريبات تتعلق بجوانب الأمن السيبراني.
فيما أكد 17% من المشاركين أنهم لم يحصلوا على أي تدريب متعلق بالذكاء الاصطناعي على الإطلاق.
كما أشارت النتائج إلى أن معظم الدورات التدريبية التي حصل عليها الموظفون ركزت على كيفية استخدام الأدوات وإنشاء الأوامر بكفاءة.
دون التعمق في المخاطر الأمنية المرتبطة بتسريب البيانات أو عمليات “حقن أوامر الذكاء الاصطناعي” الخبيثة التي قد تهدد خصوصية المعلومات داخل المؤسسات.
سياسات الشركات بين السماح والمنع
كما أوضحت كاسبرسكي أن جزء من المشكلة يعود إلى غياب سياسات واضحة داخل بعض الشركات بشأن استخدام أدوات الذكاء الاصطناعي.
فقد أكد 77% من المشاركين أن استخدام الذكاء الاصطناعي مسموح في مؤسساتهم.
ينما قال 20% إن شركاتهم تحظر استخدامه، وأبدى 2% فقط عدم معرفتهم بسياسة شركتهم في هذا الشأن.
كما حذرت الدراسة من أن هذا الاستخدام غير المنظم يجعل أدوات الذكاء الاصطناعي جزء مما يعرف بـ “تكنولوجيا المعلومات الظل”.
وهو ما يعرض المؤسسات لمخاطر كبيرة إذا لم تكن هناك ضوابط رقابية وتدابير أمنية صارمة.
كاسبرسكي: سياسة متوازنة هي الحل
قال راشد المومني، المدير العام لمنطقة الشرق الأوسط في كاسبرسكي، إن الحل لا يكمن في المنع التام أو السماح المطلق باستخدام أدوات الذكاء الاصطناعي داخل المؤسسات.
بل في اتباع سياسة متوازنة تراعي حساسية البيانات وطبيعة كل قسم.
كما أضاف ينبغي منح الموظفين مستويات مختلفة من الصلاحيات في استخدام الذكاء الاصطناعي تبعا لنوعية البيانات التي يتعاملون معها.
ومع التدريب المناسب يمكن تحقيق التوازن بين الكفاءة التشغيلية والحفاظ على أعلى مستويات الأمان.
كاسبركي تقدم توصيات لضمان الاستخدام الآمن للذكاء الاصطناعي
قدمت كاسبرسكي مجموعة من التوصيات للشركات والمؤسسات لضمان الاستخدام الآمن والمسؤول لأدوات الذكاء الاصطناعي داخل بيئات العمل، من أبرزها:
تدريب الموظفين على الاستخدام الآمن والمسؤول للذكاء الاصطناعي من خلال دورات متخصصة متاحة عبر منصة كاسبرسكي للتوعية الأمنية.
رفع كفاءة فرق تكنولوجيا المعلومات عبر برامج تدريبية متقدمة مثل «أمن النماذج اللغوية الكبيرة» ضمن باقات تدريب الأمن السيبراني.
تثبيت حلول أمن سيبراني موثوقة على أجهزة الموظفين الشخصية والمهنية لحمايتهم من عمليات التصيد وبرامج الذكاء الاصطناعي الوهمية.
إجراء استطلاعات دورية لمراقبة استخدام الذكاء الاصطناعي داخل المؤسسة وتحديث السياسات الداخلية بناءً على النتائج.
اعتماد وكيل ذكاء اصطناعي متخصص لتصفية البيانات الحساسة ومنع الوصول غير المصرح به.
إنشاء سياسة شاملة للأمن السيبراني تغطي جميع جوانب استخدام الذكاء الاصطناعي داخل الشركة.
نتائج الدراسة الإقليمية
كما يذكر أن الدراسة أجريت عام 2025 بواسطة وكالة تولونا للأبحاث بتكليف من كاسبرسكي.
وشملت 2,800 موظف ومدير من مستخدمي الحواسيب في سبع دول هي: مصر، السعودية، الإمارات، تركيا، جنوب إفريقيا، كينيا، وباكستان.
حيث تهدف الدراسة إلى تقييم مدى الوعي بالمخاطر الرقمية الناجمة عن الاعتماد المتزايد على أدوات الذكاء الاصطناعي في بيئات العمل الحديثة.
وتقديم حلول عملية للشركات لتبني الذكاء الاصطناعي بأمان وثقة.
مواضيع متعلقة
- “انفينيكس”و”اليونسكو” ينظمان ورشة عمل حول الذكاء الاصطناعي والروبوتات بالجامعة الكندية بالقاهرة
- وزير التموين: التكامل الرقمي مع القطاع الخاص يبني منظومة تجارة مستدامة
- وزيرا العدل والاتصالات يطلقان مشروعات كبرى للعدالة الرقمية وتيسير الخدمات
- “تاسكد إن” تطلق مبادرة لدعم 1000 رائد أعمال مصري بالتزامن مع قمة “تكني سميت” بالإسكندرية