من المرجح أن يكون الجميع قد سمع عن OpenClaw، المعروف سابقًا باسم “Clawdbot” أو “Moltbot”، وهو مساعد ذكاء اصطناعي مفتوح المصدر يمكن تشغيله محليًا على الجهاز. ويتكامل هذا المساعد مع منصات الدردشة الشهيرة مثل WhatsApp وTelegram وSignal وDiscord وSlack، مما يتيح له استقبال الأوامر من مالكه والتحكم الكامل في نظام الملفات المحلي. ويمتلك كذلك صلاحية الوصول إلى تقويم المالك وبريده الإلكتروني والمتصفح، بل ويمكنه أيضاً تنفيذ أوامر نظام التشغيل عبر واجهة الأوامر (shell).
من المنظور الأمني، يكفي هذا الوصف وحده لإثارة القلق والذعر لدى أي شخص. لكن عندما يبدأ الأفراد في محاولة استخدامه للعمل داخل بيئة الشركات، يتحول ذلك القلق بسرعة إلى قناعة راسخة بحدوث فوضى وشيكة. وقد أطلق بعض الخبراء بالفعل على OpenClaw لقب “أكبر تهديد داخلي لعام 2026”. وتغطي المشكلات المرتبطة بأداة OpenClaw النطاق الكامل للمخاطر التي تم تسليط الضوء عليها في قائمة OWASP لأهم 10 مخاطر في تطبيقات الوكيل الصادرة مؤخرًا.
يسمح OpenClaw بربط أي نموذج لغوي كبير (LLM)، سواء كان محليًا أو سحابيًا، مع استخدام نطاق واسع من التكاملات مع خدمات إضافية. ويعتمد النظام في جوهره على بوابة تستقبل الأوامر عبر تطبيقات الدردشة أو واجهة مستخدم ويب، ثم توجهها إلى وكلاء الذكاء الاصطناعي المناسبين. وأُطلق الإصدار الأول، المسمى Clawdbot، في نوفمبر 2025؛ وبحلول يناير 2026، حقق انتشارًا هائلاً – وجلب معه كومة من المشاكل الأمنية. وفي أسبوع واحد، تم الكشف عن عدة ثغرات أمنية خطيرة، وظهرت مهارات خبيثة في دليل المهارات، وسُرّبت بيانات سرية من Moltbook (وهو ما يشبه منصة Reddit للروبوتات). ولإتمام المشهد، أصدرت شركة Anthropic طلبًا قانونيًا بتغيير اسم المشروع لتجنب انتهاك العلامة التجارية “Claude”، كما تم اختراق حساب المشروع على منصة X للترويج لعمليات احتيال بالعملات المشفرة.
مشكلات OpenClaw المعروفة
على الرغم من أن مطور المشروع يبدو مدركًا لأهمية الأمان، إلا أنه وبما أن هذا المشروع يندرج ضمن مشاريع الهواة، فلا توجد أي موارد مخصصة لإدارة الثغرات الأمنية أو غيرها من أساسيات أمان المنتجات.
الثغرات الأمنية في OpenClaw
من بين الثغرات الأمنية المعروفة في OpenClaw، تعد الثغرة CVE-2026-25253 هي الأكثر خطورة (بتقييم 8.8 وفق مقياس CVSS). ويؤدي استغلال هذه الثغرة إلى اختراق كامل للبوابة، مما يسمح للمهاجم بتنفيذ أوامر عشوائية. وما يزيد الأمر سوءًا هو سهولة تنفيذها بشكل مثير للقلق: إذا زار الوكيل موقعًا يملكه مهاجم أو نقر المستخدم على رابط ضار، يتم تسريب رمز المصادقة الأساسي. وبمجرد الحصول على هذا الرمز، يمتلك المهاجم صلاحيات تحكم إدارية كاملة في البوابة. وقد تم تصحيح هذه الثغرة في الإصدار 2026.1.29.
علاوة على ذلك، تم اكتشاف ثغرتين خطيرتين من نوع حقن الأوامر، تحملان الرقمين CVE-2026-24763 وCVE-2026-25157.
الإعدادات والميزات الافتراضية غير الآمنة
تجعل مجموعة متنوعة من الإعدادات الافتراضية وغرائب التنفيذ من عملية مهاجمة البوابة نزهةً سهلة:
- يتم تعطيل التصديق بشكل افتراضي، مما يجعل البوابة متاحة للوصول عبر الإنترنت.
- يقبل الخادم اتصالات WebSocket دون التحقق من مصدرها.
- تتمتع اتصالات المضيف المحلي بثقة ضمنية، وهو أمر ينذر بكارثة وشيكة في حال كان المضيف يقوم بتشغيل خادم وكيل عكسي.
- يمكن الوصول إلى العديد من الأدوات – بما في ذلك بعض الأدوات الخطرة – في وضع الضيف.
- تتسبب رسائل البث عبر بروتوكول mDNS في تسريب معاملات التكوين الحرجة عبر الشبكة المحلية.
البيانات السرية المخزنة كنص عادي
تُخزن ملفات الإعدادات و”الذاكرة” وسجلات الدردشة الخاصة بأداة OpenClaw مفاتيح واجهة برمجة التطبيقات، وكلمات المرور، وبيانات الاعتماد الأخرى للنماذج اللغوية الكبيرة (LLMs) وخدمات التكامل في نص عادي. ويمثل هذا تهديدًا خطيرًا، لدرجة أنه تم رصد نسخ من برامج RedLine وLumma لسرقة المعلومات وقد أضافت مسارات ملفات OpenClaw إلى قوائم الأهداف ذات الأولوية للسرقة. وتم ضبط برنامج سرقة المعلومات Vidar وهو يسرق البيانات السرية من OpenClaw.
المهارات الخبيثة
يمكن توسيع وظائف OpenClaw عبر “المهارات” المتاحة في مستودع ClawHub. وبما أن الباب مفتوح لأي شخص لتحميل هذه المهارات، لم يستغرق الأمر طويلاً حتى بدأ المهاجمون في “دمج” برنامج سرقة المعلومات AMOS لنظام macOS ضمن ملفاتهم التي تم تحميلها. وفي غضون فترة وجيزة، وصل عدد المهارات الخبيثة إلى المئات. ودفع هذا المطورين إلى إبرام صفقة سريعة مع VirusTotal لضمان ألا يقتصر فحص المهارات التي تم تحميلها على قواعد بيانات البرامج الضارة فحسب، بل يشمل أيضاً خضوع التعليمات البرمجية والمحتوى للتحليل عبر نماذج لغوية كبيرة (LLMs). ومع ذلك، أكد مطورو المشروع بوضوح: هذا الحل ليس حلاً نهائيًا وشاملاً.
العيوب الهيكلية في مساعد الذكاء الاصطناعي OpenClaw
يمكن معالجة الثغرات عن طريق التصحيحات البرمجية، كما يمكن تحصين الإعدادات، إلا أن بعض مشكلات OpenClaw تكمن في صلب تصميمه. يجمع المنتج بين عدة ميزات حرجة تشكل خطورة بالغة عندما تجتمع معًا:
- يتمتع OpenClaw بوصول ذي صلاحيات واسعة إلى البيانات الحساسة الموجودة على الجهاز المضيف وعلى الحسابات الشخصية للمالك.
- المساعد مكشوف تمامًا أمام البيانات غير الموثوقة: يستقبل الوكيل الرسائل عبر تطبيقات الدردشة والبريد الإلكتروني، ويتصفح صفحات الويب بشكل مستقل، وما إلى ذلك.
- يعاني النظام من العجز المتأصل في النماذج اللغوية الكبيرة (LLMs) عن الفصل بين الأوامر والبيانات بشكل موثوق، مما يجعل حقن الأوامر البرمجية أمرًا ممكنًا.
- يحفظ الوكيل النتائج والمخرجات الأساسية من مهامه للاستناد إليها في أفعاله المستقبلية. وهذا يعني أن عملية حقن واحدة ناجحة قد تؤدي إلى تسميم ذاكرة الوكيل، مما يؤثر على سلوكه على المدى الطويل.
- يمتلك OpenClaw القدرة على التواصل مع العالم الخارجي – إرسال رسائل البريد الإلكتروني، وإجراء استدعاءات لواجهات برمجة التطبيقات، واستخدام أساليب أخرى لتسريب البيانات الداخلية.
تجدر الإشارة إلى أنه على الرغم من كون OpenClaw نموذجًا متطرفًا بشكل خاص، إلا أن قائمة “الخماسية المرعبة” هذه تميز في الواقع جميع وكلاء الذكاء الاصطناعي متعددي الأغراض تقريبًا.
مخاطر OpenClaw على المؤسسات
إذا قام موظف بتثبيت وكيل كهذا على جهاز الشركة وربطه حتى بمجموعة خدمات أساسية (مثل Slack وSharePoint)، فإن المزيج المكون من التنفيذ الذاتي للأوامر، والوصول الواسع لنظام الملفات، وصلاحيات OAuth المفرطة، يهيئ بيئة خصبة لاختراق عميق للشبكة. وفي الواقع، فإن عادة هذا الروبوت في تكديس الأسرار والرموز غير المشفرة في مكان واحد تعد كارثة وشيكة – حتى لو لم يتم اختراق وكيل الذكاء الاصطناعي نفسه أبدًا.
علاوة على ذلك، تنتهك هذه الإعدادات المتطلبات التنظيمية في العديد من البلدان والقطاعات، مما قد يؤدي إلى غرامات محتملة وفشل في عمليات التدقيق. وتفرض المتطلبات التنظيمية الحالية، مثل تلك الواردة في قانون الذكاء الاصطناعي للاتحاد الأوروبي أو إطار إدارة مخاطر الذكاء الاصطناعي للمعهد الوطني للمعايير والتقنية الأمريكي (NIST)، صراحةً ضوابط صارمة للوصول إلى وكلاء الذكاء الاصطناعي. ومن الواضح أن نهج تكوين OpenClaw لا يلبي تلك المعايير.
لكن المفاجأة الحقيقية هي أنه حتى في حال حظر الموظفين من تثبيت هذا البرنامج على أجهزة العمل، فإنه قد ينتهي به المطاف على أجهزتهم الشخصية. ويخلق هذا أيضًا مخاطر محددة للمؤسسة ككل:
- غالبًا ما تُخزن الأجهزة الشخصية بيانات الوصول إلى أنظمة العمل، مثل إعدادات الشبكة الخاصة الافتراضية (VPN) للشركة، أو رموز المستعرض الخاصة بالبريد الإلكتروني والأدوات الداخلية. ويمكن اختراق هذه البيانات للحصول على موطئ قدم داخل البنية التحتية للشركة.
- يعني التحكم في الوكيل عبر تطبيقات الدردشة أن الموظف ليس المستهدف الوحيد بالهندسة الاجتماعية، بل يصبح وكيله الذكي هدفًا أيضًا؛ حيث تتحول عمليات الاستيلاء على حسابات الذكاء الاصطناعي أو انتحال صفة المستخدم في الدردشات مع الزملاء (إلى جانب عمليات احتيال أخرى) إلى واقع ملموس. وحتى لو نوقشت أمور العمل بشكل عابر في الدردشات الشخصية، فإن المعلومات الواردة فيها تظل صيدًا سهلاً وجاهزًا للاستغلال.
- إذا تم ربط وكيل ذكاء اصطناعي على جهاز شخصي بأي من خدمات الشركة (البريد الإلكتروني، أو المراسلة، أو تخزين الملفات)، فيمكن للمهاجمين التلاعب بهذا الوكيل لسحب البيانات، وسيكون من الصعب للغاية على أنظمة المراقبة المؤسسية رصد هذا النشاط.
كيفية اكتشاف OpenClaw
اعتمادًا على قدرات الرصد والاستجابة لدى فريق مركز العمليات الأمنية (SOC)، يمكنهم تتبع محاولات الاتصال ببوابة OpenClaw على الأجهزة الشخصية أو في السحابة. بالإضافة إلى ذلك، يمكن لمجموعة محددة من المؤشرات الحمراء أن تكشف عن وجود OpenClaw على أجهزة الشركة:
- ابحث عن المجلدات التالية: ~/.openclaw/ أو ~/clawd/ أو ~/.clawdbot/ على الأجهزة المضيفة.
- افحص الشبكة باستخدام أدوات داخلية، أو أدوات عامة مثل Shodan، لتحديد بصمات HTML الخاصة بلوحات تحكم Clawdbot.
- راقب حركة مرور WebSocket على المنفذين 3000 و18789.
- راقب رسائل البث عبر بروتوكول mDNS على المنفذ 5353 (تحديدًا تلك التي تحمل المعرف openclaw-gw.tcp).
- راقب أي محاولات مصادقة غير معتادة في خدمات الشركة، مثل تسجيل معرفات تطبيقات جديدة، أو أحداث طلب موافقة OAuth، أو سلاسل وكيل المستخدم المرتبطة ببيئة Node.js وغير ذلك من وكلاء المستخدم غير القياسيين.
- ابحث عن أنماط وصول نموذجية لعمليات جمع البيانات المؤتمتة: مثل قراءة أجزاء ضخمة من البيانات (استخراج جميع الملفات أو كافة رسائل البريد الإلكتروني) أو فحص المجلدات على فترات زمنية ثابتة خلال ساعات الراحة.
التحكم في الذكاء الاصطناعي غير المصرح به
يمكن لمجموعة من ممارسات السلامة الأمنية أن تقلص بفعالية من بصمة كل من تكنولوجيا المعلومات غير المصرح بها والذكاء الاصطناعي غير المصرح به، مما يجعل نشر OpenClaw داخل المؤسسة أمرًا أصعب بكثير.
- استخدم قائمة السماح على مستوى المضيف لضمان تثبيت التطبيقات والتكاملات السحابية المعتمدة فقط. وبالنسبة للمنتجات التي تدعم قابلية التوسع (مثل ملحقات Chrome، أو ملحقات VS Code، أو مهارات OpenClaw)، نفذ قائمة مغلقة من المكونات الإضافية التي تمت مراجعتها وفحصها.
- قم بإجراء تقييم أمني شامل لأي منتج أو خدمة، بما في ذلك وكلاء الذكاء الاصطناعي ، قبل السماح لهم بالارتباط بموارد الشركة.
- يجب التعامل مع وكلاء الذكاء الاصطناعي وفقًا للمتطلبات الأمنية الصارمة ذاتها المطبقة على الخوادم العامة التي تعالج بيانات الشركة الحساسة.
- طبق مبدأ الحد الأدنى من الصلاحيات على جميع المستخدمين والهويات الأخرى.
- لا تمنح امتيازات إدارية ما لم تكن هناك حاجة عمل ماسة. ويجب إلزام جميع المستخدمين ذوي الصلاحيات المرتفعة باستخدامها فقط عند أداء مهام محددة، بدلاً من العمل من خلال حسابات ذات امتيازات طوال الوقت.
- قم بتكوين خدمات الشركة بحيث يتم منح التكاملات الفنية (مثل التطبيقات التي تطلب الوصول عبر OAuth) الحد الأدنى فقط من الأذونات.
- قم بإجراء تدقيق دوري للتكاملات، ورموز OAuth المميزة، والأذونات الممنوحة لتطبيقات الطرف الثالث. وراجع مدى الحاجة إليها مع أصحاب المصلحة في العمل، واسحب الصلاحيات المفرطة بشكل استباقي، وقم بإلغاء التكاملات القديمة أو غير المستخدمة.
النشر الآمن للذكاء الاصطناعي الوكيل
إذا سمحت مؤسسة باستخدام وكلاء الذكاء الاصطناعي بصفة تجريبية – كما هو الحال في اختبارات التطوير أو المشاريع التجريبية لرفع الكفاءة – أو إذا تمت الموافقة على حالات استخدام محددة للموظفين العموميين، فيجب تنفيذ تدابير قوية للمراقبة، وتسجيل في السجلات، والتحكم في الوصول:
- انشر الوكلاء في شبكة فرعية معزولة مع فرض قواعد دخول وخروج صارمة، مما يقصر الاتصال على المضيفين الموثوق بهم والمطلوبين للمهمة فقط.
- استخدم رموز وصول قصيرة العمر مع نطاق محدود من الامتيازات. ولا تقم مطلقًا بتسليم الوكيل الرموز المميزة التي تمنح الوصول إلى خوادم الشركة الأساسية أو خدماتها. ومن الناحية المثالية، أنشئ حسابات خدمة مخصصة لكل اختبار على حدة.
- اعزل الوكيل عن الأدوات ومجموعات البيانات الخطيرة التي لا صلة لها بعمله المحدد. وبالنسبة لعمليات النشر التجريبية، فمن أفضل الممارسات اختبار الوكيل باستخدام بيانات اصطناعية بالكامل تحاكي هيكلية بيانات الإنتاج الحقيقية.
- قم بإعداد سجلات توثيق تفصيلية لجميع إجراءات الوكيل. ويجب أن يشمل ذلك سجلات الأحداث، ومعايير سطر الأوامر ، ومخرجات سلسلة الأفكار المرتبطة بكل أمر ينفذه.
- قم بإعداد نظام إدارة معلومات الأمان والأحداث (SIEM) لتمييز أنشطة الوكيل غير الطبيعية. وتنطبق التقنيات والقواعد نفسها المستخدمة في اكتشاف هجمات العيش على موارد النظام قابلة للتطبيق هنا، على الرغم من أن الأمر يتطلب جهودًا إضافية لتحديد ماهية النشاط الطبيعي لكل وكيل محدد.
- في حال استخدام خوادم MCP ومهارات الوكيل الإضافية، فافحصها باستخدام أدوات الأمان الناشئة المخصصة لهذه المهام، مثل skill-scanner أو mcp-scanner أو mcp-scan. ولاختبار OpenClaw تحديدًا، أصدرت العديد من الشركات بالفعل أدوات مفتوحة المصدر لمراجعة أمان تكويناتها.
سياسات المؤسسة وتدريب الموظفين
يمثل الحظر القاطع لجميع أدوات الذكاء الاصطناعي مسارًا بسيطًا، لكنه نادرًا ما يكون مثمرًا. وعادةً ما يجد الموظفون طرقاً للالتفاف على الحظر – مما يدفع المشكلة إلى الظل حيث يصعب السيطرة عليها. وبدلاً من ذلك، فمن الأفضل إيجاد توازن معقول بين الإنتاجية والأمان.
تنفيذ سياسات شفافة بشأن استخدام الذكاء الاصطناعي الوكيل. حدد فئات البيانات التي يُسمح لخدمات الذكاء الاصطناعي الخارجية بمعالجتها، وتلك المحظورة تمامًا. ويحتاج الموظفون لفهم أسباب المنع. وتحظى سياسة “نعم، لكن بضوابط” دائمًا بقبول أفضل من “الرفض” المطلق.
التدريب على أمثلة من الواقع. غالبًا ما تذهب التحذيرات المجردة بشأن “مخاطر التسريب” سدى. ومن الأفضل تقديم عرض عملي يوضح كيف يمكن لوكيل ذكاء اصطناعي لديه صلاحية الوصول إلى البريد الإلكتروني أن يعيد توجيه رسائل سرية لمجرد أن بريدًا عشوائيًا واردًا طلب منه ذلك. وعندما يصبح التهديد ملموسًا، تزداد الرغبة في الالتزام بالقواعد. ومن الناحية المثالية، يجب على الموظفين اجتياز دورة تدريبية مكثفة وموجزة حول أمان الذكاء الاصطناعي.
تقديم بدائل آمنة. وإذا كان الموظفون بحاجة إلى مساعد ذكاء اصطناعي، فوفر أداة معتمدة تتميز بإدارة مركزية، وتوثيق للسجلات، والتحكم في الوصول عبر بروتوكول OAuth.
الذكاء الاصطناعي
النصائح