كيفية استخدام ChatGPT وGemini وأنظمة الذكاء الاصطناعي الأخرى بأمان

يمكن رؤية أدوات الذكاء الاصطناعي في كل مكان – من أنظمة التشغيل والمجموعات المكتبية إلى برامج تحرير الصور والمحادثات. كيف تستخدم ChatGPT وGemini والعديد من الوظائف الإضافية لها دون تعريض أمنك الرقمي للخطر؟

يمكن رؤية أدوات الذكاء الاصطناعي في كل مكان - من أنظمة التشغيل والمجموعات المكتبية إلى برامج تحرير الصور والمحادثات. كيف تستخدم ChatGPT وGemini والعديد من الوظائف الإضافية لها دون تعريض أمنك الرقمي للخطر؟

يبدو أن النمو الهائل الذي شهده العام الماضي في تطبيقات وخدمات الذكاء الاصطناعي والمكونات الإضافية سيتسارع فحسب. وتتم إضافة الذكاء الاصطناعي إلى الأدوات المألوفة والمستخدمة منذ فترة طويلة، من التطبيقات المكتبية ومحررات الصور إلى بيئات التطوير المتكاملة (IDEs) مثل Visual Studio. وينشئ الكثير من المطورين آلاف التطبيقات الجديدة التي تستفيد من أكبر نماذج الذكاء الاصطناعي. ومع ذلك، لم يتمكن أحد في هذا السباق حتى الآن من حل مشكلات الأمان المتأصلة، وهي أولاً وقبل كل شيء، تقليل تسرب البيانات السرية، وكذلك مستوى اختراق الحساب / الجهاز من خلال أدوات الذكاء الاصطناعي المختلفة – ناهيك عن وضع ضمانات مناسبة ضد هجمات “الذكاء الاصطناعي الشرير” المستقبلية. وإلى أن يتوصل شخص إلى حل جاهز لحماية مستخدمي مساعدي الذكاء الاصطناعي، سيتعين عليك اكتساب بعض المهارات ومساعدة نفسك.

إذًا، كيف يمكنك استخدام الذكاء الاصطناعي دون أن تندم عليه لاحقًا؟

تصفية البيانات الهامة

تنص سياسة الخصوصية التي تتبعها OpenAI، الشركة المطورة لنظام ChatGPT، بشكل لا لبس فيه على أنه يتم حفظ أي محادثات مع روبوت المحادثة ويمكن استخدامها لعدد من الأغراض. أولاً، تحل هذه العناصر المشكلات الفنية وتمنع انتهاكات شروط الخدمة: في حالة حصول شخص على فكرة لإنشاء محتوى غير لائق. من كان يظن ذلك، أليس كذلك؟ في هذه الحالة، قد تتم مراجعة المحادثات بواسطة أحد الأشخاص. ثانيًا، يمكن استخدام البيانات لتدريب إصدارات GPT الجديدة وإجراء “تحسينات” أخرى على المنتج.

تمتلك معظم نماذج اللغات الشائعة الأخرى – سواء كانت Gemini من Google، أو Claude من Anthropic، أو Bing وCopilot من Microsoft  سياسات مماثلة: يمكنها جميعًا حفظ المحادثات بالكامل.

ومع ذلك، فقد حدثت بالفعل تسريبات غير مقصودة للمحادثات بسبب أخطاء برمجية، حيث يرى المستخدمون محادثات الآخرين بدلاً من محادثاتهم الخاصة. وقد يؤدي استخدام هذه البيانات للتدريب أيضًا إلى تسرب البيانات من نموذج تم تدريبه مسبقًا: قد يقدم مساعد الذكاء الاصطناعي معلوماتك إلى شخص ما إذا كان يعتقد أنها ذات صلة بالرد. بل وصمم حتى خبراء أمان المعلومات هجمات متعددة (واحدة، اثنتان، ثلاثة) تهدف إلى سرقة المحادثات، ومن غير المرجح أن يتوقفوا عند هذا الحد.

لذا، تذكر: أي شيء تكتبه إلى روبوت محادثة يمكن استخدامه ضدك. ونوصي باتخاذ الاحتياطات عند التحدث إلى الذكاء الاصطناعي.

لا ترسل أي بيانات شخصية إلى روبوت محادثة. ولا يجب أن تنتهي كلمات المرور أو أرقام جواز السفر أو البطاقة المصرفية أو العناوين أو أرقام الهواتف أو الأسماء أو البيانات الشخصية الأخرى التي تخصك أو شركتك أو عملائك في المحادثات مع الذكاء الاصطناعي. ويمكنك استبدالها بعلامات نجمية أو “منقحة” في طلبك.

تجنب تحميل أي وثائق. تتيح لك العديد من المكونات الإضافية والوظائف الإضافية استخدام برامج المحادثة الآلية لمعالجة المستندات. وقد يكون هناك إغراء قوي لتحميل مستند عمل للحصول على ملخص تنفيذي، على سبيل المثال. ومع ذلك، من خلال تحميل مستند متعدد الصفحات بلا مبالاة، فإنك تخاطر بتسريب البيانات السرية أو الملكية الفكرية أو أسرار تجارية مثل تاريخ إصدار منتج جديد أو كشوف مرتبات الفريق بأكمله. أو ، الأسوأ من ذلك، عند معالجة المستندات الواردة من مصادر خارجية، قد يتم استهدافك بهجوم يعتمد على المستند الذي يتم فحصه بواسطة نموذج لغة.

استخدم إعدادات الخصوصية. راجع بعناية سياسة خصوصية بائع نموذج اللغة الكبير (LLM) والإعدادات المتاحة: يمكن الاستفادة منها عادةً لتقليل التتبع. على سبيل المثال، تتيح لك منتجات OpenAI تعطيل حفظ محفوظات المحادثة. وفي هذه الحالة، ستتم إزالة البيانات بعد 30 يومًا ولن يتم استخدامها أبدًا للتدريب. ويتم تمكين هذا الإعداد افتراضيًا للأشخاص الذين يستخدمون واجهة برمجة التطبيقات أو تطبيقات أو خدمات الأطراف الخارجية للوصول إلى حلول OpenAI.

هل تريد إرسال التعليمات البرمجية؟ نظف أي بيانات سرية. ويتم توجيه هذه النصيحة إلى مهندسي البرمجيات الذين يستخدمون مساعدي الذكاء الاصطناعي لمراجعة وتحسين التعليمات البرمجية الخاصة بهم: قم بإزالة أي مفاتيح لواجهة برمجة التطبيقات (API) أو عناوين خادم أو أي معلومات أخرى يمكن أن تكشف عن بنية التطبيق أو تكوين الخادم.

الحد من استخدام تطبيقات الأطراف الخارجية والمكونات الإضافية

اتبع النصائح المذكورة أعلاه في كل مرة، بغض النظر عن مساعد الذكاء الاصطناعي الشهير الذي تستخدمه. ومع ذلك، حتى هذا قد لا يكون كافيًا لضمان الخصوصية. ويؤدي استخدام المكونات الإضافية لنظام ChatGPT أو ملحقات Gemini أو تطبيقات الوظائف الإضافية المنفصلة إلى ظهور أنواع جديدة من التهديدات.

أولاً، قد يتم الآن تخزين سجل المحادثات ليس فقط على خوادم Google أو OpenAI، لكن أيضًا على خوادم تابعة لطرف خارجي تدعم المكون الإضافي أو الوظيفة الإضافية، وكذلك في زوايا غير متوقعة على جهاز الكمبيوتر أو هاتفك الذكي.

ثانيًا، تستمد معظم المكونات الإضافية المعلومات من مصادر خارجية: عمليات البحث على الويب أو البريد الوارد في Gmail أو الملاحظات الشخصية من خدمات مثل Notion أو Jupyter أو Evernote. ونتيجة لذلك، قد ينتهي الأمر أيضًا بوصول أي من بياناتك من هذه الخدمات إلى الخوادم التي يعمل عليها المكون الإضافي أو نموذج اللغة نفسه. وقد يحمل التكامل من هذا النوع مخاطر كبيرة: على سبيل المثال، ضع في اعتبارك هذا الهجوم الذي ينشئ مستودعات GitHub جديدة نيابة عن المستخدم.

ثالثا، يعد نشر المكونات الإضافية لمساعدي الذكاء الاصطناعي والتحقق منها حاليًا عملية أقل تنظيمًا بكثير من فحص التطبيقات في App Store أو Google Play، على سبيل المثال. لذلك، فإن فرصك في مواجهة مكون إضافي يعمل بطريقة سيئة أو مكتوب بشكل سيء أو يحتوي على أخطاء أو حتى مكون إضافي ضار مرتفعة إلى حد ما، خاصة لأنه يبدو أنه لا يوجد أحد يتحقق فعلاً من المنشئين أو بيانات الاتصال الخاصة بهم.

كيف يمكنك التخفيف من هذه المخاطر؟ نصيحتنا الرئيسية هنا هي منحها بعض الوقت. ويعتبر النظام البيئي للمكونات الإضافية صغيرًا جدًا، ولا تتسم عمليات النشر والدعم بالسلاسة الكافية، ولا يهتم المنشئون أنفسهم دائمًا بتصميم المكونات الإضافية بشكل صحيح أو الامتثال لمتطلبات أمان المعلومات. ويحتاج هذا النظام البيئي بأكمله إلى المزيد من الوقت حتى ينضج ويصبح أكثر أمانًا وموثوقية.

علاوة على ذلك، فإن القيمة التي تضيفها العديد من المكونات الإضافية والوظائف الإضافية إلى إصدار ChatGPT ليست سوى الحد الأدنى: تعديلات بسيطة على واجهة المستخدم وقوالب “مطالبة النظام” التي تخصص المساعد لمهمة محددة (“العمل كمدرس فيزياء في المدرسة الثانوية…”). ومن المؤكد أن هذه الأغلفة لا تستحق أن تثق بتقديم بياناتك إليها، حيث يمكنك إنجاز المهمة بشكل جيد بدونها.

إذا كنت بحاجة إلى بعض ميزات المكونات الإضافية هنا والآن، فحاول اتخاذ أقصى الاحتياطات المتاحة قبل استخدامها.

  • اختر الإضافات والوظائف الإضافية التي كانت موجودة منذ عدة أشهر على الأقل ويتم تحديثها بانتظام.
  • فكر فقط في المكونات الإضافية التي تحتوي على عدد كبير من التنزيلات، واقرأ المراجعات بعناية للبحث عن أي مشكلات.
  • إذا كان المكون الإضافي لديه سياسة خصوصية، فاقرأها بعناية قبل البدء في استخدام الملحق.
  • اختر الأدوات مفتوحة المصدر.
  • إذا كنت تمتلك مهارات كتابة تعليمات برمجية أولية – أو أصدقاء مبرمجين – فاقرأ التعليمات البرمجية للتأكد من أنها ترسل البيانات فقط إلى الخوادم المعلنة، ومن الأفضل، إلى خوادم نماذج الذكاء الاصطناعي فقط.

المكونات الإضافية للتنفيذ تتطلب مراقبة خاصة

حتى الآن، كنا نناقش المخاطر المتعلقة بتسريب البيانات؛ لكن هذه ليست المشكلة المحتملة الوحيدة عند استخدام الذكاء الاصطناعي. وتتمتع العديد من المكونات الإضافية بالقدرة على تنفيذ إجراءات محددة بناءً على أمر المستخدم – مثل طلب تذاكر الطيران. وتزود هذه الأدوات الأطراف الخبيثة بناقل هجوم جديد: حيث يُعرض على الضحية مستند أو صفحة ويب أو مقطع فيديو أو حتى صورة تحتوي على تعليمات مخفية لنموذج اللغة بالإضافة إلى المحتوى الرئيسي. وإذا قام الضحية بتغذية المستند أو الرابط إلى روبوت المحادثة، فسيقوم الأخير بتنفيذ التعليمات الضارة – على سبيل المثال، عن طريق شراء التذاكر بأموال الضحية. ويُشار إلى هذا النوع من الهجوم باسم الحقن الفوري، وعلى الرغم من أن مطوري العديد من نماذج اللغة الكبيرة يحاولون تطوير حماية ضد هذا التهديد، إلا أنه لم يتمكن أحد من إدارته – وربما لن يفعل ذلك أبدًا.

لحسن الحظ، تتطلب معظم الإجراءات المهمة – خاصة تلك التي تتضمن معاملات الدفع مثل شراء التذاكر – تأكيدًا مزدوجًا. ومع ذلك، فإن التفاعلات بين نماذج اللغة والمكونات الإضافية تخلق مساحة هجوم كبيرة جدًا بحيث يصعب ضمان الحصول على نتائج متسقة من هذه التدابير.

لذلك، يجب أن تكون دقيقًا جدًا عند اختيار أدوات الذكاء الاصطناعي، وكذلك التأكد من أنها لا تتلقى سوى البيانات الموثوقة للمعالجة.

تحميك الرموز التي تستخدم لمرة واحدة والمصادقة ثنائية العوامل بشكل آمن ضد سرقة الحساب. وإذا تلقيت هذا الرمز أو تلقيت طلبًا لإدخاله عندما تسجل الدخول, فقد تكون هذه محاولة لاختراق حسابك.

ماذا تفعل عندما تتلقى رسائل غير مرغوب فيها تحتوي على رموز التعريف السرية

تحميك الرموز التي تستخدم لمرة واحدة والمصادقة ثنائية العوامل بشكل آمن ضد سرقة الحساب. وإذا تلقيت هذا الرمز أو تلقيت طلبًا لإدخاله عندما تسجل الدخول, فقد تكون هذه محاولة لاختراق حسابك.

تحميك الرموز التي تستخدم لمرة واحدة والمصادقة ثنائية العوامل بشكل آمن ضد سرقة الحساب. وإذا تلقيت هذا الرمز أو تلقيت طلبًا لإدخاله عندما تسجل الدخول, فقد تكون هذه محاولة لاختراق حسابك.
النصائح

برمجيات تنقيب مخفية بداخل جووجل بلاي ستور!

عندما يصبح جهازك بطىء، يلوم العديد من المستخدمين البرمجيات الخبيثة والفيروسات. ولكن عندما يصبح هاتفك الذكي بطيء عادة ما تلوم البطارية او نظام التشغيل وعندها تريد شراء هاتف جديد! وربما يكون سبب هذه المشكلة شيء اخر تماماً!  برمجيات التنقيب المخفية!