Take a fresh look at your lifestyle.

تحذيرات من مخاطر تسريب البيانات عبر أدوات الذكاء الاصطناعي التوليدي

كشفت دراسة حديثة عن مخاطر متزايدة ترتبط باستخدام أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وCopilot، خاصة في ما يتعلق بتسريب المعلومات الحساسة داخل المؤسسات. ووفقا لتقرير صادر عن مؤسسة “هارمونيك”، فإن 8.5 في المائة من الطلبات التي يقدمها الموظفون لتلك الأدوات تتضمن بيانات دقيقة، على غرار معلومات الفوترة وبيانات المصادقة الخاصة بالعملاء.

وأبرز التقرير أن هذا النوع من السلوكيات يشكل تهديدا أمنيا بالغ الخطورة، وسط استمرار تزايد الاعتماد على تقنيات الذكاء الاصطناعي دون وعي كاف بالمخاطر المصاحبة لها، سواء من طرف المستخدمين أو المؤسسات نفسها.

وفي هذا السياق، شددت آنا كولارد، نائبة الرئيس الأولى لاستراتيجية المحتوى في KnowBe4 Africa على أن أحد أبرز المخاطر يكمن في تسرب البيانات دون قصد. وأوضحت أن العديد من المستخدمين يدخلون كميات كبيرة من المعلومات الحساسة دون إدراك للعواقب، ما يشمل بيانات الملكية وسجلات العملاء وخطط الأداء الداخلية.

وحذرت كولارد من أن استخدام الذكاء الاصطناعي في بيئة تبدو ودية وغير رسمية قد يجعل الموظفين يكشفون عن تفاصيل أكثر مما قد يفعلونه في بيئة العمل التقليدية، بما في ذلك مشكلات داخلية أو معلومات استراتيجية حساسة.

وتكمن خطورة هذه التسريبات في إمكانية تجميعها لاحقا من قبل جهات خبيثة مثل مجرمي الإنترنت أو وسطاء البيانات، ما يفتح الباب أمام هجمات تصيّد دقيقة وسرقة الهوية وتنفيذ عمليات هندسة اجتماعية متقدمة.

وتابعت كولارد محذرة من أن ضعف الرقابة حتى لدى مطوري التطبيقات غير الخبيثين قد يؤدي إلى تسريبات كبيرة، مؤكدة أن الأمر لا يقتصر على الأفراد فقط، بل قد يعرض المؤسسات برمتها للخطر من خلال الكشف عن بيانات العملاء أو استراتيجيات المنتج أو العمليات الداخلية.

وللحد من هذه المخاطر أوصت الخبيرة المؤسسات بوضع سياسات واضحة لتأطير استخدام أدوات الذكاء الاصطناعي، مع فرض رقابة حقيقية على ما يدخل إليها من بيانات واعتماد أدوات رسمية تضمن حماية المعطيات.

كما دعت إلى تبني مبدأ “الخصوصية حسب التصميم” عند تطوير أنظمة الذكاء الاصطناعي، والعمل بمنصات مزودة بإعدادات أمان مؤسسية وامتدادات للمتصفحات قادرة على رصد البيانات الحساسة ومنع تسريبها.

كولارد شددت على أهمية مواءمة استخدام الذكاء الاصطناعي مع القوانين والمعايير الأخلاقية، مقترحة اعتماد معيار ISO/IEC 42001 الخاص بإدارة الذكاء الاصطناعي بفعالية واستدامة داخل المؤسسات.

قد يعجبك ايضا