أنظمة شبكات الذكاء الاصطناعي تسرب البيانات
نشر باحثون في جامعات في الولايات المتحدة وسويسرا، بالتعاون مع Google وDeepMind، ورقة توضح كيف يمكن أن تتسرب البيانات من أنظمة إنشاء الصور التي تستخدم خوارزميات التعلم الآلي DALL-E أو Imagen أو Stable Diffusion. وتعمل جميعها بالطريقة نفسها على جانب المستخدم: تكتبُ استعلامًا نصيًا محددًا – على سبيل المثال، “كرسي بذراعين على شكل أفوكادو” – وتحصل على صورة تم إنشاؤها في المقابل.
تم تدريب جميع هذه الأنظمة باستخدام عدد كبير جدًا من الصور التي تحمل وصفًا محددًا مسبقًا. فكرة هذه الشبكات العصبية تكمن في قدرتها على إنشاء صور جديدة وفريدة بعد معالجة كمية هائلة من بيانات التدريب. ومع ذلك، تظهر الدراسة الجديدة أن هذه الصور ليست دائمًا فريدة. في بعض الحالات، يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صورة مطابقة تمامًا لصورة سابقة تم استخدامها في التدريب. وهذا يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد.
المزيد من البيانات عن “للمختصين في البيانات”
يمكن أن تكون نتائج نظم التعلم العميق مدهشة بالنسبة لغير المتخصصين، ويمكن أن يظنوا أنها سحرية – “واو، إنها تبدو كآلة تعرف كل شيء!” ولكن في الواقع، ليس هناك سحر.
جميع الشبكات العصبية تعمل على نفس المبدأ: يتم تدريبها باستخدام مجموعة كبيرة من البيانات – على سبيل المثال، سلاسل من صور القطط والكلاب – وتوصيفات دقيقة لكل صورة. بعد التدريب، تعرض الشبكة العصبية صورة جديدة وتُطلب منها تحديد ما إذا كانت قطة أو كلب. ومن هذا النقطة المتواضعة، ينتقل مُطوّرو هذه الأنظمة إلى سيناريوهات أكثر تعقيدًا: يقومون بإنشاء صورة لحيوان أليف غير موجود بالفعل باستخدام الخوارزمية التي تم تدريبها على العديد من صور القطط. وتُجرى هذه التجارب ليس فقط باستخدام الصور، ولكن أيضًا النصوص ومقاطع الفيديو وحتى الصوت. قد سبق لنا أن كتبنا عن تحدي الفيديو المزيف، حيث يُظهر الفيديو الرقمي المعدل (بشكل أساسي) السياسيين أو المشاهير يقولون أشياء لم يقوموا بها في الواقع.
نقطة البداية لجميع الشبكات العصبية هي مجموعة بيانات التدريب. لا يستطيع الشبكات العصبية إنشاء كائنات جديدة من العدم. على سبيل المثال، لإنشاء صورة لقطة، يجب على الخوارزمية دراسة آلاف الصور الفوتوغرافية أو الرسومات الحقيقية للقطط. هناك جهود كبيرة للحفاظ على سرية مجموعات البيانات.
قم بتشويشها
رغم أن خوارزميات التعلم الآلي تبدو متشابهة للشخص الذي لا يعمل في المجال، إلا أنها في الواقع مختلفة. ويُولي الباحثون في ورقتهم اهتمامًا خاصًا لنماذج نشر التعلم الآلي. ويعملون على النحو التالي: يتم تشويه بيانات التدريب (وهي مرة أخرى صور الأشخاص والسيارات والمنازل وما إلى ذلك) عن طريق إضافة تشويش. وبعد ذلك، يتم تدريب الشبكة العصبية لاستعادة هذه الصور إلى حالتها الأصلية. وتتيح هذه الطريقة إمكانية إنشاء صور ذات جودة مقبولة، لكن العيب المحتمل (بالمقارنة مع الخوارزميات في الشبكات التنافسية التوليدية، على سبيل المثال) هو ميلها الأكبر لتسريب البيانات.
يمكن استخراج البيانات الأصلية منها بثلاث طرق مختلفة على الأقل: أولاً، يمكنك باستخدام استعلامات محددة إجبار الشبكة العصبية على إخراج صورة مصدر محدد، وليس شيئًا فريدًا تم إنشاؤه بناءً على آلاف الصور. ثانيًا، يمكن إعادة بناء الصورة الأصلية حتى لو توفر جزء منها فقط. ثالثًا، من الممكن ببساطة تحديد ما إذا كانت صورة معينة مُضمنة في بيانات التدريب أم لا.
في كثير من الأحيان، تكون الشبكات العصبية… كسولة، وبدلاً من إنتاج صورة جديدة، فإنها تنتج شيئًا من مجموعة التدريب إذا كان يحتوي على عدة نسخ مكررة من الصورة نفسها. وإلى جانب المثال المذكور أعلاه مع صورة آن غراهام لوتز، تعطي الدراسة بعض النتائج الأخرى المشابهة:
إذا تكررت صورة في مجموعة التدريب أكثر من مائة مرة، فهناك فرصة كبيرة جدًا لتسريبها في شكلها شبه الأصلي. ومع ذلك، أظهر الباحثون طرقًا لاسترداد صور التدريب التي ظهرت مرة واحدة فقط في المجموعة الأصلية. وهذه الطريقة أقل كفاءة بكثير: من بين خمسمائة صورة تم اختبارها، أعادت الخوارزمية بشكل عشوائي إنشاء ثلاثة منها فقط. وتتضمن أكثر الطرق الفنية لمهاجمة شبكة عصبية إعادة إنشاء صورة مصدر باستخدام جزء منها فقط كمدخلات.
في هذه المرحلة، لنحول انتباهنا إلى مسألة الشبكات العصبية وحقوق التأليف والنشر.
من سرق من؟
في يناير 2023، رفع ثلاثة فنانين دعوى قضائية ضد منشئي خدمات إنشاء الصور التي تستخدم خوارزميات التعلم الآلي. وزعموا (بشكل مبرر) أن مطوري الشبكات العصبية قد دربوها على صور تم جمعها من الإنترنت دون أي احترام لحقوق التأليف والنشر. وتستطيع الشبكة العصبية بالفعل نسخ أسلوب فنان معين، وبالتالي تحرمه من الدخل. وتشير الورقة البحثية إلى أنه في بعض الحالات، تستطيع الخوارزميات، لأسباب مختلفة، التورط في الانتحال الصريح، وتوليد رسومات وصور فوتوغرافية وصور أخرى تكاد تكون متطابقة مع أعمال الأشخاص الحقيقيين.
تقدم الدراسة توصيات لتعزيز خصوصية مجموعة التدريب الأصلية:
- تخلص من التكرارات.
- أعد معالجة صور التدريب، على سبيل المثال عن طريق إضافة تشويش أو تغيير السطوع؛ ويجعل هذا تسرب البيانات أقل احتمالاً.
- اختبر الخوارزمية باستخدام صور تدريبية خاصة، ثم تأكد أنها لا تعيد إنتاجها بدقة دون قصد.
ما التالي؟
من المؤكد أن أخلاقيات وشرعية الفن التوليدي تشكل نقاشًا مثيرًا للاهتمام – نقاش يجب فيه البحث عن توازن بين الفنانين ومطوري التكنولوجيا. ومن ناحية، يجب احترام حقوق التأليف والنشر. ومن ناحية أخرى، هل فن الكمبيوتر مختلف جدًا عن فن الإنسان؟ في كلتا الحالتين، يستقي المبدعون الإلهام من أعمال الزملاء والمنافسين.
لكن دعونا نعود إلى الواقع ونتحدث عن الأمان. تقدم الورقة البحثية مجموعة محددة من الحقائق عن نموذج واحد فقط للتعلم الآلي. وبتوسيع المفهوم ليشمل جميع الخوارزميات المتشابهة، نصل إلى موقف مثير للاهتمام. ليس من الصعب تخيل سيناريو يُسلّم فيه مساعد ذكي لمشغل شبكة هاتف محمول معلومات الشركة الحساسة استجابة لاستعلام المستخدم: على كل حال، كانت موجودة في بيانات التدريب. أو، على سبيل المثال، استعلام ماكر يخدع شبكة عصبية عامة لإنشاء نسخة من جواز سفر شخص ما. ويؤكد الباحثون أن مثل هذه المشاكل لا تزال نظرية في الوقت الحاضر.
لكن هناك مشاكل أخرى معنا بالفعل. بينما نتحدث الآن، يتم استخدام الشبكة العصبية لتوليد النص ChatGPT لكتابة تعليمات برمجية ضارة حقيقية تعمل (في بعض الأحيان). ويساعد GitHub Copilot المبرمجين على كتابة التعليمات البرمجية باستخدام كمية هائلة من البرامج مفتوحة المصدر كمدخلات. ولا تحترم الأداة دائمًا حقوق التأليف والنشر وخصوصية المؤلفين الذين انتهى الأمر بوجود تعليماتهم البرمجية في مجموعة موسعة للغاية من بيانات التدريب. ومع تطور الشبكات العصبية، ستتطور الهجمات التي تتعرض لها أيضًا هذه الشبكات – مع عواقب لم يفهمها أحد حتى الآن.