أصابني بعض الإرهاق الآن من جميع أخبار الذكاء الاصطناعي، لكنني أعتقد أنني سأضطر إلى تحملها لفترة أطول قليلًا، نظرًا ليقيني التام باستمرار الحديث عن الأمر لمدة لا تقل عن عام أو عامين. لا يعني ذلك أن الذكاء الاصطناعي سيتوقف عن التطور، بالطبع؛ بل يتجسد الأمر بأن الصحفيين والمدونين ومستخدمي TikTok ومغردي Tweeter وغيرهم سيتسلل إلى داخلهم التعب من إثر تكرار الحديث عن الأمر في نهاية المطاف. ولكن في الوقت الحالي، لم يصبح مصدر حماستهم عمالقة التكنولوجيا فحسب، بل الحكومات أيضًا: تخطط المملكة المتحدة لإدخال تنظيم الذكاء الاصطناعي الثلاثي؛ وضعت الصين مسودة تشريع الذكاء الاصطناعي للنقاش العام؛ تدعو الولايات المتحدة إلى “المساءلة الخوارزمية “؛ يناقش الاتحاد الأوروبي مشاريع القوانين المتعلقة بالذكاء الاصطناعي، وما إلى ذلك، ولكنه لم يمررها بعد. طرحت الكثير من الخطط المستقبلية، ولكن حتى الآن، لم يكن إنشاء واستخدام أنظمة الذكاء الاصطناعي محدودين بكافة الأشكال؛ ولكن يبدو أن هذا سيتغير قريبًا.
من الواضح أن الأمر المثير للجدل هو: هل نحتاج إلى وضع تنظيم حكومي للذكاء الاصطناعي إجمالًا؟ إذا فعلنا ذلك — ما الأسباب، وما الطريقة التي ينبغي طرحها؟
الأمور الواجب تنظيمها
ما المقصود بالذكاء الاصطناعي؟ (لا) بفضل أقسام التسويق، يستخدم المصطلح لأمور لا تعد ولا تحصى — بدءًا من النماذج الإنجازية الحديثة مثل GPT-4، إلى أبسط أنظمة التعلُّم الآلي، بما في ذلك بعض الأنظمة التي كانت موجودة منذ عقود. ألا تتذكر Т9 على الهواتف المحمولة ذات الأزرار؟ ألم تسمع عن البريد المزعج التلقائي وتصنيف الملفات الخبيثة؟ هل تطلع على توصيات الأفلام المنتشرة على موقع Netflix؟ تعتمد التكنولوجيا المألوفة على خوارزميات التعلُّم الآلي (ML)، ويُعرف أيضا باسم “الذكاء الاصطناعي”.
هنا في Kaspersky، نستخدم تلك التكنولوجيا في منتجاتنا منذ 20 عامًا، ونفضل دائمًا الإشارة إليها بشكلٍ معقول باسم “التعلُّم الآلي” — فقط لأن “الذكاء الاصطناعي” يستدعي إلى أذهان الجميع أشياءَ مثل التحدث عن أجهزة الكمبيوتر العملاقة على سفن الفضاء وغيرها من الأشياء مباشرة من الخيال العلمي على ما يبدو. ولكن تحتاج هذه الحواسيب وأجهزة الإنسان الآلي (الروبوتات) إلى كامل القدرة على التفكير الشبيه بالإنسان — لقيادة الذكاء العام الاصطناعي (AGI) أو الذكاء الاصطناعي الخارق (ASI)، ومع ذلك لم يخترع أيٌّ منهما بعد، ولن يكون الأمر كذلك في المستقبل المنظور.
في العموم في حالة قياس جميع أنواع الذكاء الاصطناعي بالمقياس نفسه وتنظيمها بالكامل، فإن قطاع تكنولوجيا المعلومات بأكمله والعديد من القطاعات ذات الصلة لن تحقق نتائج جيدة على الإطلاق. على سبيل المثال، إذا طُلب منا (Kaspersky) الحصول على موافقة من جميع “مؤلفي” مجموعة التدريب، فسنجد أنفسنا في مواجهة الحائط باعتبارنا شركة أمن معلومات. ونتعلم من البرامج الضارة والبريد المزعج، ونغذي المعرفة المكتسبة في التعلُّم الآلي لدينا، في حين أن مؤلفيها يميلون إلى حجب بيانات الاتصال الخاصة بهم (من كان يعرف؟!). علاوةً على ذلك بالاطلاع على البيانات المُجمعة وتدريب خوارزمياتنا منذ مدة تقارب 20 عامًا حتى الآن — ما مقدار غوصنا في أدغال الماضي؟
لذلك، من الضروري للمشرعين الاستماع، ليس لأفراد التسويق، ولكن لخبراء قطاع التعلُّم الآلي/الذكاء الاصطناعي ومناقشة التنظيم المحتمل بطريقة محددة ومركزة: على سبيل المثال، ربما باستخدام أنظمة متعددة الوظائف مدربة على كميات كبيرة من البيانات المفتوحة أو أنظمة صنع القرار عالية المسؤولية ومستوى المخاطر.
وستتطلب تطبيقات الذكاء الاصطناعي الجديدة مراجعات متكررة للوائح عند ظهورها.
ما الأسباب التي تقف وراء أهمية التنظيم؟
لأكون صادقًا، لا أومن بيوم حساب بمساعدة الذكاء الاصطناعي الخارق خلال المائة عام القادمة. لكنني أومن بمجموعة كاملة من حالات الإزعاج من الاستخدام غير المسؤول للصندوق الأسود للكمبيوتر.
باعتباره تذكيرًا لأولئك الذين لم يقرؤوا مقالاتنا بشأن الجوانب المضيئة والمظلمة للتعلُّم الآلي، تلوح في الأفق ثلاث قضايا رئيسة تتعلق بكافة أنواع الذكاء الاصطناعي:
- لم يتضح مدى جودة بيانات التدريب المستخدمة لها في الماضي/الحاضر.
- ليس من الواضح على الإطلاق ما الذي نجح فيه الذكاء الاصطناعي في “فهم” هذا المخزون من البيانات أو كيف يتخذ قراراته.
- والأهم من ذلك — يمكن إساءة استخدام الخوارزمية من جانب مطوريها ومستخدميها على حد سواء.
ومن ثم يتوقع حدوث أي شيء على الإطلاق: بدءًا من سوء الاستخدام الخبيث للذكاء الاصطناعي وانتهاءً بعدم التفكير في الامتثال لقرارات الذكاء الاصطناعي. أمثلة من واقع الحياة الرسومية: أخطاء الطيار الآلي القاتلة، التزييف العميق (1، 2، 3) المعتاد الآن في الميمات وحتى الأخبار، خطأ سخيف في التعاقد مع معلم المدرسة، الشرطة تقبض على سارق ولكن ليس هو نفسه الشخص السارق، وأداة استخدام الذكاء الاصطناعي كارهة للنساء. إلى جانب ذلك، يمكن مهاجمة أي ذكاء اصطناعي بمساعدة عينات بيانات معادية مخصصة: يمكن خداع المركبات باستخدام الملصقات، ويمكن للمرء استخراج المعلومات الشخصية من GPT -3، ويمكن خداع مكافحة الفيروسات أو EDR أيضًا. وللتنبيه فإن الهجمات على الطائرات المسيرة التي تعمل بالذكاء الاصطناعي الموصوفة في الخيال العلمي يبدو أنها غير بعيدة المنال.
باختصار، لم يؤد استخدام الذكاء الاصطناعي إلى حدوث مشكلات هائلة حقًا حتى الآن، ولكن يتضح وجود العديد من الاحتمالات لحدوثهم. لذلك، يجب أن تكون أولويات التنظيم واضحة:
- منع حوادث البنية التحتية الحرجة (المصانع/السفن/خطوط نقل الطاقة/محطات الطاقة النووية).
- تقليل التهديدات الجسدية (المركبات بدون سائق، التشخيص الخاطئ للأمراض).
- التقليل من الأضرار الشخصية والمخاطر المنطوية على الأعمال التجارية (الاعتقالات أو التوظيف بناءً على قياسات الجمجمة، وسوء تقدير الطلب/المشتريات، وما إلى ذلك).
الهدف من التنظيم هو إجبار المستخدمين ومورّدي الذكاء الاصطناعي على الحرص على عدم زيادة مخاطر حدوث الأشياء السلبية المذكورة. وكلما كان الخطر محدقًا، أصبح من الضروري إجباره.
تظهر بواعث قلق أخرى غالبًا ما يعبر عنها فيما يتعلق بالذكاء الاصطناعي: الحاجة إلى مراعاة المعايير الأخلاقية والأدبية، وتلبية الراحة النفسية؛ إن جاز التعبير. ولتحقيق هذه الغاية، نرى تحذيرات حتى يعرف الناس أنهم يشاهدون كائنًا غير موجود (رسمة ذكاء اصطناعي) أو يتواصلون مع إنسان آلي (روبوت) وليس إنسانًا، كما نلاحظ أيضًا أن حقوق الطبع والنشر قد احترمت أثناء تدريب الذكاء الاصطناعي، وما إلى ذلك. وما الأسباب؟ لذلك لا يصب الغوغاء جام غضبهم نحو المشرعين وموردي الذكاء الاصطناعي! ويمثل ذلك الأمر مصدر قلق حقيقيًا للغاية في بعض أنحاء العالم (تذكر الاحتجاجات ضد أوبر، على سبيل المثال).
طريقة التنظيم
إن الطريقة المُثلى لتنظيم الذكاء الاصطناعي هي حظر كل شيء، ولكن يبدو أن هذا النهج لم يطرح بعد. وعلى أي حال، ليس من السهل حظر الذكاء الاصطناعي أكثر من أجهزة الكمبيوتر. ولذلك، ينبغي أن تتبع جميع محاولات التنظيم المعقولة مبدأ “كلما زاد الخطر، زادت صرامة المتطلبات”.
نماذج التعلُّم الآلي التي تستخدم لشيء تافه إلى حد ما — مثل توصيات مشتري التجزئة — يمكن أن تصبح غير منظمة، ولكن كلما كان النموذج أكثر تطورًا — أو أكثر حساسية في منطقة الاستخدام — أصبحت متطلبات موردي النظام والمستخدمين صارمة. على سبيل المثال:
- تقديم رمز النموذج أو مجموعة بيانات التدريب للتفتيش على المنظمين أو الخبراء.
- إثبات متانة مجموعة بيانات التدريب، بما في ذلك من حيث التحيز وحقوق النشر وما إلى ذلك.
- إثبات معقولية “مخرجات” الذكاء الاصطناعي؛ على سبيل المثال، كونها خالية من الهلوسة.
- تسمية عمليات ونتائج الذكاء الاصطناعي.
- تحديث نموذج ومجموعة بيانات تدريبية؛ على سبيل المثال، فحص الأشخاص من لون بشرة معين من بيانات المصدر أو قمع الصيغ الكيميائية للمتفجرات في إخراج النموذج.
- اختبار الذكاء الاصطناعي “للبيانات المعادية”، وتحديث سلوكه حسب الضرورة.
- التحكم في مستخدمي الذكاء الاصطناعي المحدد والأسباب. الحرمان من أنواع محددة من الاستخدام.
- تدريب الذكاء الاصطناعي الواسع أو ما ينطبق على منطقة معينة، فقط بإذن من الجهة التنظيمية.
- إثبات أمان استخدام الذكاء الاصطناعي لمعالجة مشكلة معينة. ويعتبر هذا النهج غاية الغرابة لتكنولوجيا المعلومات، ولكنه سائد جدًا، على سبيل المثال، شركات الأدوية ومصنعو الطائرات والعديد من القطاعات الأخرى التي يمثل فيها أمر السلامة أهمية بالغة. أولًا، ستأتي خمس سنوات من الاختبارات الشاملة، ثم إذن المنظم، ومن ثم يمكن إطلاق منتج للاستخدام العام.
يبدو الإجراء الأخير صارمًا للغاية، ولكن فقط حتى تتعلم عن الحوادث التي أفسد فيها الذكاء الاصطناعي أولويات العلاج لمرضى الربو الحاد والالتهاب الرئوي وحاول إرسالهم إلى المنزل بدلًا من وحدة العناية المركزة.
يمكن أن تتراوح تدابير الإنفاذ من غرامات على انتهاكات قواعد الذكاء الاصطناعي (على غرار العقوبات الأوروبية على انتهاكات الناتج المحلي الإجمالي) إلى ترخيص الأنشطة المتعلقة بالذكاء الاصطناعي والعقوبات الجنائية على انتهاكات التشريعات (كما هو مقترح في الصين).
لكن ما الطريقة الصحيحة؟
تمثل أدناه آرائي الشخصية — لكنها تستند إلى 30 عامًا من السعي الدؤوب للتطوير التكنولوجي المتقدم في قطاع الأمن السيبراني: بدءًا من التعلُّم الآلي وانتهاءً بأنظمة “آمنة حسب التصميم”.
أولًا، أصبحنا بحاجة إلى وضع تنظيم. بدونه، سينتهي الأمر بالذكاء الاصطناعي إلى أن يشبه الطرق السريعة بدون قواعد مرور. أو بالأحرى تشبه حالة جمع البيانات الشخصية عبر الإنترنت في أواخر العقد الأول من القرن الحادي والعشرين، عندما كان الجميع تقريبًا يجمعون كل ما يمكنهم وضع أيديهم عليه. بادئًا ذي بدء يعزز التنظيم الانضباط الذاتي لدى الكبار في السوق.
ثانيًا، إننا بحاجة إلى تحقيق أقصى قدر من المواءمة والتعاون الدوليين في مجال التنظيم — بالطريقة نفسها كما هو الحال مع المعايير الفنية في مجال الاتصالات المتنقلة والإنترنت وما إلى ذلك. ويبدو مثاليًا بالنظر إلى الواقع الجيوسياسي الحديث، ولكن هذا لا يدفعه ليصبح مرغوبًا من جانب الجماهير.
ثالثًا، يجب ألّا يصبح التنظيم صارمًا للغاية: سيكون من قصر النظر تضييق الخناق على قطاع واعد ديناميكي مثل هذا القطاع مع الإفراط في التنظيم. ومع ذلك، لا نزال بحاجة إلى آلية للمراجعات المتكررة للقواعد لمواكبة التكنولوجيا وتطورات السوق.
رابعًا، ينبغي تحديد القواعد ومستويات المخاطر ومستويات تدابير الحماية بالتشاور مع عدد كبير من الخبراء ذوي الخبرة ذات الصلة.
خامسًا، يجب ألّا ننتظر عشر سنوات. لقد كنت أتحدث عن المخاطر الخطيرة الكامنة في إنترنت الأشياء وعن نقاط الضعف في المعدات الصناعية لأكثر من عقد من الزمان بالفعل، في حين ظهرت وثائق مثل قانون الاتحاد الأوروبي للمرونة السيبرانية لأول مرة (باعتبارها مسودات!)
ولكن هل يمثل ذلك الأمر مجمل الأمر يا رفاق! بالغ الشكر لجميع الأشخاص الذين قرؤوا الموضوع حتى النهاية لقد أحسنتم صنعًا — شكرًا لكم جميعًا! وهذا لمستقبل مثير للاهتمام – آمن – محسّن بالذكاء الاصطناعي!…