
هل الذكاء الاصطناعي آمن؟ يمكن القول إنه الموضوع الأكثر شيوعًا في عالم التكنولوجيا في الوقت الحالي ، وهو موضوع يجذب نقاشًا كبيرًا.
في قمة عالمية في باريس في فبراير 2025 ، اختلفت وجهات النظر حول سلامة الذكاء الاصطناعي بين قادة العالم. على سبيل المثال ، دعا رئيس فرنسا ، إيمانويل ماكرون ، إلى مزيد من التنظيم لمساعدة الذكاء الاصطناعي على المضي قدمًا ، بينما قال نائب رئيس الولايات المتحدة ، جي دي فانس ، إنه ينبغي إعطاء "سياسات الذكاء الاصطناعي الداعمة للنمو" الأولوية على مخاوف السلامة.
بينما تستكشف الشركات والسلطات والأفراد الشرعيون طرقًا لاستخدام الذكاء الاصطناعي بمسؤولية وأمان ، هناك أيضًا تهديد آخر: استخدام الذكاء الاصطناعي من قبل مجرمي الإنترنت لجعل أنشطتهم الخبيثة أكثر قوة ونجاحًا.
تعد الجرائم الإلكترونية للذكاء الاصطناعي عاملاً مغيّرًا للعبة للأمان عبر المشهد الرقمي ، ومن الضروري أن يكون الجميع على دراية بالمخاطر والإجراءات اللازمة للبقاء في أمان. يستكشف هذا الدليل الأنواع المختلفة للهجمات الإلكترونية للذكاء الاصطناعي ، وما تعنيه هذه الهجمات من وجهة نظر أمنية ، وما يمكنك فعله الآن لتعزيز دفاعاتك.
أمثلة على القرصنة الناجحة باستخدام الذكاء الاصطناعي
إن مخاطر البرمجيات الخبيثة التي ينشئها الذكاء الاصطناعي وغيرها من الأنشطة الإجرامية أكثر بكثير من مجرد كونها نظرية - فهذه الهجمات تحدث بالفعل وتحصد ضحايا في جميع أنحاء العالم. فيما يلي ثلاثة أمثلة فقط من بين عدد كبير من الأمثلة:
انتحال الشخصية: Guido Crosetto
في أوائل عام 2025 ، استخدم المحتالون تقنية الصوت التي تم إنشاؤها بواسطة الذكاء الاصطناعي لانتحال شخصية وزير الدفاع الإيطالي ، جويدو كروسيتو. ثم اتصلوا برواد الأعمال الأثرياء في إيطاليا من خلال نداء وهمي للحصول على دعم مالي من المفترض أن يستخدم للمساعدة في تحرير الصحفيين الإيطاليين المختطفين في الشرق الأوسط. تم خداع رجل أعمال واحد على الأقل لإرسال أموال إلى ما ثبت أنه حساب احتيالي.
البرامج الضارة: عملية احتيال DeepSeek ClickFix
عملية احتيال واحدة لمجرم الإنترنت أنشأت صفحة ويب للتحقق تحاكي AI DeepSeek الصيني الجديد. المستخدمون الذين يكملون ما يعتقدون أنه أمر تحقق Captcha هم تثبيت Vidar Stealer و Lumma Stealer ، وهو برنامج ضار يمكن استخدامه لسرقة المعلومات الحساسة ، بما في ذلك معلومات تسجيل الدخول والتفاصيل البنكية ، مما يؤدي في النهاية إلى الاحتيال المصرفي عبر الإنترنت .
خطأ المستخدم: تسرب ChatGPT من Samsung
على الرغم من أنه ليس هجومًا من فيروسات الذكاء الاصطناعي أو البرامج الضارة على هذا النحو ، فقد سلط هذا الحادث البارز الضوء على كيفية فتح الباب عن غير قصد لهجمات الذكاء الاصطناعي. في ربيع عام 2023 ، استخدم موظفو شركة التكنولوجيا الكورية العملاقة Samsung ChatGPT للتحقق من بعض التعليمات البرمجية المصدر الخاصة بها ، دون أن يدركوا أنه سيتم الاحتفاظ بالبيانات لمزيد من التدريب على نموذج الذكاء الاصطناعي. وقد أدى ذلك بشكل فعال إلى وضع بعض حقوق الملكية الفكرية الحساسة للغاية الخاصة بشركة Samsung في المجال العام بحيث يمكن لأي شخص الوصول إليها.
أنواع الهجمات الإلكترونية للذكاء الاصطناعي
توجد بالفعل عدة طرق مختلفة يمكن من خلالها استخدام الذكاء الاصطناعي للقيام بنشاط خبيث ، إما بشكل مباشر أو لدعم المؤسسات الإجرامية الأخرى:
الهندسة الاجتماعية
هجوم الهندسة الاجتماعية هو المكان الذي يحاول فيه المجرمون التأثير على السلوك البشري ودفع المستخدمين إلى التخلي عن المعلومات أو الأصول لهم طواعية. قد يكون هذا أي شيء من البيانات الشخصية الحساسة أو معلومات الحساب البنكي أو الأموال أو العملات المشفرة أو الوصول إلى بعض الأجهزة وقواعد البيانات. لقد أثبت الذكاء الاصطناعي أنه مفيد للغاية في هذا النوع من الهجمات ، حيث يساعد مجرمي الإنترنت على تحديد الأهداف ، وتطوير شخصيات ورسائل مقنعة ، وإنشاء تسجيلات صوتية ومرئية تضيف المعقولية إلى عملية الاحتيال.
هجمات التصيد الاحتيالي
تعتمد هجمات التصيد الاحتيالي على تفكير المستخدمين في أن الرسائل والارتباطات ومرفقات البريد الإلكتروني التي تلقوها حقيقية والنقر فوق ما يتضح أنه برامج ضارة. لقد ساعد تعليم المستخدم الجيد في تقليل نجاح هذه الهجمات في الماضي ، ولكن يتم استخدام الذكاء الاصطناعي الآن لجعل محاولات التصيد الاحتيالي أكثر إقناعًا من أي وقت مضى. يمكن استخدامه في الاتصالات في الوقت الحقيقي مثل رسائل WhatsApp أو اتصالات وسائل التواصل الاجتماعي ، وحتى في برامج الدردشة المزيفة لخدمة العملاء حيث يعتقد العملاء أنهم يشاركون تفاصيل حساباتهم مع أعضاء حقيقيين من الموظفين.
رانسومواري AI
وسعت الذكاء الاصطناعي إلى حد كبير من القدرات التقنية لهجمات برمجيات الفدية . ويتضمن ذلك البحث المستهدف ، مثل تقييم الأنظمة بحثًا عن الثغرات الأمنية الواعدة لاستغلالها ، والقدرة على تكييف ملفات برامج الفدية بحيث يظل بإمكانها التهرب من اكتشاف حلول الأمن السيبراني.
الذكاء الاصطناعي العدائي و GPTs الخبيثة
يقوم العديد من المجرمين الإلكترونيين بتشويه المخرجات الناتجة عن الذكاء الاصطناعي من خلال تزويدهم ببيانات غير دقيقة أو التلاعب بإعدادات نموذج الذكاء الاصطناعي. يمكن أن تؤدي حالات عدم الدقة المقدمة إلى إنشاء تحيزات خطيرة أو إنشاء تعليمات تناسب أهداف الهاكر. إلى جانب ذلك ، كان هناك ارتفاع في استخدام أدوات الذكاء الاصطناعي الخبيثة التي لا تحتوي على أي ضمانات للحماية من التحيز وسوء الاستخدام ؛ GhostGPT هو مثال حديث على روبوت محادثة غير خاضع للرقابة يمكن استخدامه لإنشاء برمجيات خبيثة بالذكاء الاصطناعي.
التزييف العميق
قد تعتقد أن التزييف العميق ما هو إلا مصدر قلق للشخصيات العامة التي يتم وضع وجوهها وأصواتها في مواقف وهمية وتهديدية ، لكن التهديد الذي يتهدد الجميع حقيقي. يمكن استخدام تقنية Deepfake لانتحال شخصية أي شخص من خلال الفيديو أو الصوت أو مزيج من الاثنين. من المحتمل أن تستخدم هذه للوصول إلى المعلومات الحساسة أو حتى الحسابات المصرفية عن طريق خداع إجراءات الأمان والتحقق.
مكافحة النار بالنار: ماذا تعني الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي بالنسبة للأمن؟
إن أفضل أداة يمكن استخدامها ضد التهديدات الإلكترونية للذكاء الاصطناعي هي الذكاء الاصطناعي نفسه. هذا لا يعني أن حلول الأمان القياسية عاجزة عن منع الهجمات المدعومة من الذكاء الاصطناعي: ستظل قادرة على الحماية ضد أنواع كثيرة من البرامج الضارة والقرصنة. ومع ذلك ، فإن إدخال الذكاء الاصطناعي في مزيج الأمان يمكن أن يضيف بُعدًا إضافيًا إلى العديد من الأساليب الأمنية ، مثل:
الاستجابة للحوادث
يمكن استخدام الذكاء الاصطناعي لأتمتة أنشطة الاستجابة للحوادث. على سبيل المثال ، يمكن Kaspersky Incident Response منع النشاط الخبيث ، كما يمكن عزل الأنظمة المتأثرة بشكل أسرع بكثير من الاستجابة البشرية لتنبيه النظام. يمكن أن يؤدي التقليل الشديد لأوقات الاستجابة والحل إلى تقليل تأثير أي هجوم ، مما يؤدي في النهاية إلى الحد من حجم التعطيل والنفقات وفقدان البيانات.
اكتشاف التهديدات والبحث الاستباقي عن التهديدات
نظرًا لوجود العديد من التهديدات ، قد يكون من الصعب على فرق الأمان مواكبة كل ما هو موجود والتحقيق في كل تنبيه. هذا هو المكان الذي يمكن أن يساعد فيه الذكاء الاصطناعي ، وتحليل سلوك المستخدم وحركة مرور الشبكة بالتفصيل ، واكتشاف التهديدات المحتملة بشكل أسرع ، وتصفية الإيجابيات الزائفة التي تكلف فرق الأمان وقتًا ثمينًا. يمكن للذكاء الاصطناعي أيضًا جعل اكتشاف التهديدات استباقيًا ، وملاحقة الهجمات الإلكترونية قبل أن تبدأ.
تحليل البرامج الضارة
يمكن أن توفر الرؤى التي يمكن للذكاء الاصطناعي إنشاؤها لفرق الأمان فهمًا أفضل بكثير ومتعمق لكيفية عمل الأنواع المختلفة من البرامج الضارة في الممارسة العملية. تعني القدرة على أتمتة هذا التحليل أن فرق الأمان يمكنها الوصول إلى هذه الرؤى بشكل أسرع ويمكنها اتخاذ قرارات أكثر استنارة حول مكان وكيفية تصميم دفاعاتها ونشرها.
المسح بحثًا عن الثغرات الأمنية
يمكن لأدوات الذكاء الاصطناعي تقييم الأنظمة والبنية التحتية لمعرفة أين تكمن أكبر الثغرات الأمنية ، بحيث تتمكن فرق الأمان من تحديد أولويات وقتها ومواردها بشكل أفضل لإغلاق هذه الثغرات الأمنية. هذه المعلومات ضرورية لتحسين إدارة التصحيح والتحديث ، مما يضمن تثبيت الترقيات الأكثر إلحاحًا أولاً.
إدارة الهوية والوصول (IAM)
تم تعزيز قوة إدارة الهوية والوصول بشكل كبير بواسطة الذكاء الاصطناعي من خلال قدرته على اكتشاف الأنماط غير العادية لنشاط المستخدم من مواقع مختلفة لمحاولات الوصول إلى سرعة الكتابة وحركة الماوس. يمكن الإبلاغ عن هذه الحالات الشاذة في الوقت الفعلي لمنع أي وصول غير مصرح به محتمل و / أو لإنشاء طبقات إضافية من التحقق لتأكيد الاستخدام المشروع.
القرصنة الأخلاقية
يعد القرصنة الأخلاقية واختبار الاختراق أدوات مهمة في اكتشاف نقاط الضعف وإغلاقها بشكل استباقي. ومع ذلك ، يمكن أن يكون مشروعًا بطيئًا ومستهلكًا للوقت لمجرد حجم عبء العمل المتضمن. ومع ذلك ، يمكن للذكاء الاصطناعي تخفيف العبء الإداري عن هذه المهام بطريقتين مهمتين: أتمتة المهام الأبسط والأكثر تكرارًا التي تؤدي إلى إبطاء الفرق وتحليل نتائجها لتقديم رؤى قابلة للتنفيذ.
تقييمات المخاطر
يمكن أيضًا تطبيق نفس مزايا الذكاء الاصطناعي للقرصنة الأخلاقية في تطوير تقييمات المخاطر وتحديد أولويات التهديدات وفقًا لمستوى الخطر. قد تكون هذه أيضًا مهمة دنيوية وتستغرق وقتًا طويلاً (مهما كانت مهمة) ، لذا فإن استخدام الذكاء الاصطناعي لتسريع العملية والعناية بالوظائف المتكررة والحصول على رؤى أكثر تفصيلاً قد يكون مفيدًا للغاية.
كيف تحمي نفسك من الهجمات الإلكترونية بالذكاء الاصطناعي
إلى جانب قدرات الأمان المستندة إلى الذكاء الاصطناعي المذكورة أعلاه ، هناك الكثير من الطرق لتقليل فرص نجاح القرصنة بالذكاء الاصطناعي. من وجهة نظر خبرائنا ، فإن أفضل طريقة للمضي قدمًا تجمع بين الأشخاص والتخطيط والتكنولوجيا:
إنشاء خطة للاستجابة للحوادث
كلما تمكنت من الاستجابة للحوادث بشكل أسرع ، زادت قدرتك على التخفيف من أي تأثير والتأكد من عدم انتشار الضرر على نطاق واسع جدًا . تمامًا مثل تدريب الحريق ، يجب أن تعرف بالضبط ما يجب فعله عند وقوع حادث أمني. يجب أن تتضمن خطتك التحضير (أي الوقاية وكيفية الاستجابة) ، والاكتشاف والتحليل (تأكيد طبيعة الهجوم وشدته) ، واحتواء الهجوم والقضاء عليه (عزل النظام ، والعلاج ، والترميم) ، وأساليب الاسترداد التي تمنع من الحدوث مرة أخرى.
تعرف على المزيد حول كيفية بناء إستراتيجية فعالة باستخدام حلول الاستجابة للحوادث من Kaspersky .
استخدم أقوى منصات الأمان المتاحة
تأكد من أن لديك أكثر وسائل الحماية الأمنية شمولاً لحمايتك من التهديدات الحالية والهجمات الجديدة القائمة على جرائم الذكاء الاصطناعي. يوفر Kaspersky Premium ، على سبيل المثال ، حماية ضد الفيروسات في الوقت الحقيقي والتي تتخذ إجراءً فوريًا لمنع الهجوم ؛ ويتضمن أيضًا حماية الهوية التي توفر مزيدًا من الحماية للبيانات الشخصية الحساسة.
قم بتقييم الوضع الأمني بانتظام
مع تطور كل من الذكاء الاصطناعي والجرائم الإلكترونية بمعدل سريع ، قد لا تكون التدابير الأمنية التي لديك اليوم كافية لمدة 12 شهرًا (أو من المحتمل حتى قبل ذلك). وهذا يعني أنه ينبغي مراجعة الأمن ومراجعته بانتظام ؛ يمكن للذكاء الاصطناعي دعم ذلك من خلال التحليل في الوقت الحقيقي لنشاط المستخدم واكتشاف أي نشاط شاذ مقارنة بفترة التدقيق السابقة.
الحفاظ على الوعي الأمني للمستخدم والموظف
إن النجاح المستمر لهجمات التصيد الاحتيالي - سواء تم تطويرها باستخدام الذكاء الاصطناعي أم لا - يؤكد حقيقة أن الأمان الجيد يبدأ من المستخدمين. لقد حان الوقت لتوعية المستخدمين بمخاطر القرصنة التي تحدث بالذكاء الاصطناعي والهجمات ذات الصلة ، خاصةً حول مدى إقناع النصوص والصوت والفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. يمكن أن يساعد ذلك في تذكير المستخدمين بالبقاء متيقظين للغاية وعدم إجراء أي نشاط إلا إذا كانوا متأكدين بنسبة 100٪ أنه من الآمن القيام بذلك. اكتشف كيف يمكن أن يساعد تدريب الأمن السيبراني من Kaspersky فريقك على البقاء يقظًا ضد الهجمات التي يقودها الذكاء الاصطناعي.
مقالات ذات صلة:
- وسائل التواصل الاجتماعي والذكاء الاصطناعي: هل هي آمنة؟
- هل ChatGPT آمن للاستخدام؟ ما الذي يجب أن تعرفه
- كيفية منع الهجمات الإلكترونية
المنتجات ذات الصلة:
