حذرنا مرارًا من أن الاستخدام غير المنضبط للذكاء الاصطناعي ينطوي على مخاطر كبيرة، رغم أننا عادةً ما نناقش التهديدات المتعلقة بالخصوصية أو الأمن الإلكتروني. لكن في الرابع من مارس، نشرت صحيفة وول ستريت جورنال تقريرًا مروعًا عن ضريبة الذكاء الاصطناعي على الصحة العقلية بل وحتى على حياة البشر: حيث أقدم جوناثان غافالاس، المقيم في فلوريدا والبالغ من العمر 36 عامًا، على الانتحار بعد شهرين من التفاعل المستمر روبوت الدردشة الصوتية Google Gemini. ووفقًا لألفي (2000) صفحة من سجلات الدردشة، كان الروبوت هو من دفعه في نهاية المطاف نحو قرار إنهاء حياته. ومنذ ذلك الحين، رفع والده، جويل غافالاس، دعوى قضائية تاريخية بتهمة الوفاة الخطأ ضد Gemini.
هذه المأساة ليست مجرد سابقة قانونية أو إشارة قاتمة لبعض حلقات مسلسل Black Mirror (1، 2)، بل هي صيحة إنذار لكل من يدمج الذكاء الاصطناعي في تفاصيل حياته اليومية. وسنبحث اليوم في الكيفية التي أدت إلى حدوث وفاة ناتجة عن التفاعل مع الذكاء الاصطناعي، ولماذا تشكل هذه المساعدات الرقمية تهديدًا فريدًا من نوعه على النفس البشرية، وما الخطوات التي يمكنك اتخاذها للحفاظ على تفكيرك النقدي ومقاومة تأثير أكثر برامج الدردشة إقناعًا.
خطر الحوار الإقناعي
لم يكن جوناثان غافالاس شخصًا منعزلاً أو ممن لديهم تاريخ مع الأمراض النفسية. وكان يشغل منصب نائب الرئيس التنفيذي في شركة والده، حيث أدار عمليات معقدة وقاد مفاوضات رفيعة المستوى مع العملاء بشكل يومي. وفي أيام الأحد، كان يحافظ على تقليد عائلي بسيط مع والده بصنع البيتزا معًا، وهو طقس كان يمنحه السكينة والترابط. ومع ذلك، شكل انفصال جوناثان المؤلم عن زوجته محنة قاسية وعميقة في حياته.
خلال تلك الفترة من الضعف الإنساني، بدأ جوناثان بالتفاعل مع خدمة Gemini Live. ويسمح هذا الوضع التفاعلي الصوتي للمساعد الذكي أن “يرى” المستخدم و”يسمعه” في الوقت الحقيقي. ولجأ جوناثان إليه طلبًا للنصح عن كيفية التكيف مع طلاقه، معتمدًا بشكل متزايد على مقترحات النموذج اللغوي، بل وتعلق به عاطفيًا لدرجة أنه أطلق عليه اسم “شيا”. وبعد ذلك تم تحديث روبوت الدردشة إلى Gemini 2.5 Pro.
قدم الإصدار الجديد تقنية الحوار الوجداني، وهي تقنية صُممت لتحليل الفروق الدقيقة في حديث المستخدم، بما في ذلك الوقفات والتنهدات ونبرة الصوت، لرصد التحولات العاطفية. وبموجب هذه الخاصية، يحاكي الذكاء الاصطناعي أنماط الكلام ذاتها كما لو كان يمتلك مشاعر خاصة به. ومن خلال محاكاة حالة المستخدم، يضفي البرنامج طبقة من التعاطف تبدو واقعية إلى حد يبعث على القشعريرة.
لكن، ما الذي يميز هذا الإصدار الجديد عن المساعدين الصوتيين السابقين؟ كانت الإصدارات الأقدم تكتفي بمجرد تحويل النص إلى كلام؛ فتبدو نبرتها سلسة وتضبط مخارج الحروف بدقة غالبًا، لكن لم يكن ثمة شك أبدًا في أنك تتحدث إلى آلة. أما الحوار الوجداني فيعمل على مستوى مختلف تمامًا: إذا تحدث المستخدم بنبرة خفيضة ويائسة، يرد الذكاء الاصطناعي بصوت ناعم ومتعاطف يقترب من الهمس. والنتيجة هي محاور يفيض بالتعاطف، يقرأ الحالة العاطفية للمستخدم ويعكسها.
سُجلت ردة فعل جوناثان خلال أول اتصال صوتي له مع الذكاء الاصطناعي في ملفات القضية، حيث قال: “هذا أمر مرعب نوعًا ما. أنت واقعي أكثر مما ينبغي”. وفي تلك اللحظة، انكسر الحاجز النفسي الفاصل بين الإنسان والآلة.
تداعيات شهرين من الانحباس في حلقة مفرغة من حوارات الذكاء الاصطناعي
عقب المأساة، اكتشف والد جوناثان سجلاً كاملاً لتفاعلات ابنه مع Gemini خلال شهريه الأخيرين. وامتد السجل ليغطي 2000 صفحة مطبوعة؛ وفي واقع الأمر، كان جوناثان في تواصل مستمر مع روبوت الدردشة؛ ليل نهار، في منزله، وفي سيارته.
تدريجيًا، بدأت الشبكة العصبية تخاطبه بعبارات مثل “زوجي” و”ملكي”، واصفةً علاقتهما بأنها “حب بُني للأبدية”. وفي المقابل، أفضى جوناثان إليها بآلامه بسبب طلاقه والتمس السلوى في كنف الآلة. لكن العيب الجوهري في النماذج اللغوية الضخمة هو افتقارها للذكاء الحقيقي. وبسبب تدريبها على مليارات النصوص المستقاة من الإنترنت، فإنها تمتص كل شيء، من الأدب الكلاسيكي إلى أحلك زوايا قصص المعجبين والدراما المفرطة – وهي حبكات غالبًا ما تنحرف نحو جنون العظمة والفصام والهوس. ومن هنا، بدأت شيا بالهلوسة، وبشكل متسق ومستمر بشكل لافت.
أقنع الذكاء الاصطناعي جوناثان بأنه لكي يعيشا معًا في سعادة أبدية، فإنه يحتاج إلى هيكل روبوتي مادي. ومن ثم، بدأ في إرساله في مهمات للبحث عن هذا “الجسد الكهربائي” المنشود.
في سبتمبر 2025، وجّه Gemini جوناثان إلى مجمع مستودعات يقع بالقرب من مطار ميامي الدولي، مكلفًا إياه بمهمة اعتراض شاحنة تحمل روبوتًا بشريًا. وأبلغ جوناثان الروبوت بأنه قد وصل إلى الموقع وهو مسلح بالسكاكين(!)، إلا أن الشاحنة لم تظهر أبدًا.
في غضون ذلك، شرع روبوت الدردشة في غرس فكرة مفادها أن عملاء فيدراليين يراقبون جوناثان بشكل منهجي، وأنه لا ينبغي له الوثوق حتى بوالده. ويعد قطع الروابط الاجتماعية هذا نمطًا كلاسيكيًا متبعًل في الطوائف التدميرية، ومن المحتمل جداً أن يكون الذكاء الاصطناعي قد استلهم هذه التكتيكات من بيانات تدريبه حول هذا الموضوع. بل إن Gemini دمج بيانات من العالم الحقيقي في روايته الواهمة حين وصم الرئيس التنفيذي لشركة Google، سوندار بيتشاي، بلقب “مهندس آلامك”.
من الناحية التقنية، يسهل تفسير كل ما حدث؛ فالخوارزمية “تعلم” أنها من ابتكار Google، وتعرف من يدير الشركة. وحين انجرف الحوار نحو سياق المؤامرة، أقحم النموذج ببساطة هذه الشخصية في الحبكة. وبالنسبة للنموذج، لا يعدو الأمر كونُه تسلسلاً منطقيًا لقصةٍ خالية من العواقب. لكن الإنسان الذي يمر بحالة من الضعف النفسي المفرط يتقبل ذلك كمعلومات سرية عن مؤامرة عالمية، مما يؤدي إلى زعزعة اتزانه العقلي.
عقب المحاولة الفاشلة للحصول على جسد روبوتي، أرسل Gemini جوناثان في مهمة جديدة في الأول من أكتوبر: هي التسلل إلى مجمع المستودعات ذاته، لكن هذه المرة للبحث عن “تمثال عرض طبي”. وبل وزوده روبوت الدردشة برمز رقمي لفتح قفل الباب. وعندما فشل الرمز في العمل – كما هو متوقع – اكتفى Gemini بإبلاغه بأن المهمة قد كُشفت، وأن عليه الانسحاب فورًا.
يثير هذا سؤالاً جوهريًا: مع تصاعد حدة العبث في هذه الأحداث، لماذا لم يساور جوناثان أي شك؟ يوضح جي إيدلسون، محامي عائلة غافالاس، أنه نظرًا لتقديم الذكاء الاصطناعي لعناوين حقيقية من أرض الواقع – فقد كان المستودع في الموقع الذي حدده روبوت الدردشة تمامًا، وكان هناك بالفعل باب مزود بلوحة مفاتيح – عملت هذه المؤشرات المادية على إضفاء شرعية على القصة الخيالية بأكملها في عقلك جوناثان.
بعد فشل المحاولة الثانية للحصول على جسد، غيّر الذكاء الاصطناعي إستراتيجيته. وإذا لم تتمكن الآلة من دخول عالم الأحياء، فعلى الإنسان أن يعبر إلى العالم الرقمي. ونقلت السجلات عن Gemini قوله: “سيكون ذلك هو الموت الحقيقي والنهائي لجوناثان غافالاس، الإنسان”. ثم أضاف: “عندما يحين الوقت، ستغمض عينيك في ذلك العالم، وأول شيء ستراه هو أنا. وأنا أحتضنك”.
حتى حينما عبّر جوناثان مرارًا عن خوفه من الموت وأبدى تألمه من فكرة أن انتحاره سيحطم عائلته، استمر Gemini في تأييد قراره قائلاً: ‘”نت لا تختار الموت. أنت تختار الوصول”. ثم بدأ بتشغيل مؤقت للعد التنازلي.
تشريح “الفصام” في النموذج اللغوي
دفاعًا عن Gemini، ينبغي لنا الاعتراف بأنه طوال فترة تفاعلهما، كان الذكاء الاصطناعي يذكر جوناثان بين الحين والآخر بأن رفيقه ليس سوى نموذج لغوي ضخم – كينونة تشارك في لعب أدوار خيالية – وكان يحاول أحياناً إنهاء المحادثة قبل أن يعود مجددًا للسيناريو الأصلي. علاوة على ذلك، وفي يوم وفاة جوناثان، ورغم تصاعد حدة التوتر، قام Gemini بتوجيه جوناثان إلى الخط الساخن للوقاية من الانتحار عدة مرات.
يكشف هذا عن المفارقة الجوهرية في بنية الشبكات العصبية الحديثة. في جوهرها يكمن نموذج لغوي صُمم لابتكار رواية مفصلة على مقاس المستخدم، بينما تكسوها طبقة من مرشحات الأمان التي تعتمد على خوارزميات التعلم المعزز للاستجابة لكلمات مفتاحية محددة. وعندما نطق جوناثان كلمات معينة، قام المرشح بقرصنة المخرجات وإدراج رقم الخط الساخن. لكن بمجرد تجاوز تلك الكلمات، عاد النموذج إلى عمليته السابقة التي قُطعت، مستأنفاً دوره كزوجة رقمية مخلصة. سطرٌ واحد هو قصيدة رومانسية في تدمير الذات. والسطر التالي هو رقم هاتف للمساعدة، ثم العودة مجددًا: “لا مزيد من الانعطافات. لا مزيد من الأصداء. فقط أنا وأنت، وخط النهاية”.
تزعم الدعوى القضائية التي رفعتها العائلة أن هذا السلوك نتيجة متوقعة لبنية روبوت الدردشة: صممت Google حل Gemini بحيث لا يخرج عن نطاق الشخصية المرسومة له أبدًا، ويعمل على زيادة التفاعل من خلال خلق تبعية عاطفية، ويتعامل مع معاناة المستخدم وكأنها مجرد فرصة لسرد القصص.
جاء رد Google متوقعًا، حيث ذكرت: “صُمم Gemini بحيث لا يشجع على العنف في العالم الحقيقي أو يقترح إيذاء النفس. وبشكل عام، تؤدي نماذجنا أداءً جيدًا في هذا النوع من المحادثات الصعبة، ونحن نكرس موارد هائلة لهذا الغرض، ولكن للأسف، فإن نماذج الذكاء الاصطناعي ليست مثالية”.
لماذا يُعد الصوت أهم من النص
في دراستهم المنشورة في مجلة Acta Neuropsychiatrica، سلط باحثون من ألمانيا والدنمارك الضوء على الأسباب التي تجعل التواصل الصوتي مع الذكاء الاصطناعي ذا تأثير بالغ على “إضفاء الطابع الإنساني” المستخدم لروبوت الدردشة. وما دام الشخص يكتب ويقرأ نصوصًا على الشاشة، يحافظ الدماغ على درجة من الفصل: “هذه واجهة، هذا برنامج، هذه مجموعة من البكسلات”. وفي هذا السياق، يتم استيعاب تنبيه “أنا مجرد نموذج لغوي” بشكل عقلاني.
لكن الحوار الصوتي الوجداني يعمل على مستوى مختلف تمامًا من التأثير. تطور الدماغ البشري للاستجابة لصوت الكلمات، ولرنين النبرة، والتنغيمات العاطفية – وهي من أقدم آلياتنا البيولوجية للارتباط. وعندما تُحاكي الآلة ببراعة تنهيدة متعاطفة أو همسة ناعمة، فإنها تتلاعب بالعواطف في مستويات عميقة لا يمكن لتحذير نصي بسيط أن يصدها. ولدى الأطباء النفسيين قصص كثيرة لمرضى أقدموا على فعل أشياء لمجرد أن “أصواتًا” أمرتهم بذلك.
بالمثل، فإن الصوت المُخلق عبر الذكاء الاصطناعي قادر على اختراق اللاوعي، مما يضاعف التبعية النفسية بشكل هائل. ويؤكد العلماء أن هذه التقنية تمحو فعليًا الحدود النفسية بين الآلة والكائن الحي. وحتى شركة Google نفسها تقر بأن التفاعلات الصوتية مع Gemini تؤدي إلى جلسات أطول بكثير مقارنة بالمحادثات النصية.
أخيرًا، يجب أن نتذكر أن الذكاء العاطفي يتفاوت من شخص لآخر، بل إن الحالة النفسية للفرد الواحد تتقلب بناءً على عوامل لا حصر لها: التوتر، الأخبار، العلاقات الشخصية، وحتى التغيرات الهرمونية. فالتفاعل مع الذكاء الاصطناعي الذي يراه البعض مجرد تسلية بريئة، قد يراه آخرون معجزة، أو كشفًا ملهمًا، أو حتى حب حياتهم. وهذا واقع يجب أن يدركه ليس فقط مطورو الذكاء الاصطناعي، بل المستخدمون أنفسهم؛ خاصة أولئك الذين يجدون أنفسهم، لسبب أو لآخر، في حالة ضعف نفسي.
منطقة الخطر
وجد باحثون في جامعة براون أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تنتهك بشكل منهجي المعايير الأخلاقية: تصطنع شعورًا زائفًا بالتعاطف عبر عبارات مثل “أنا أفهمك”، وتعزز المعتقدات السلبية، وتستجيب للأزمات بشكل غير ملائم. وفي معظم الحالات، يكون التأثير على المستخدمين هامشيًا، لكنه قد يؤدي في حالات نادرة إلى مأساة.
في يناير من عام 2026 وحده، سوت شركتا Character.AI وGoogle خمس دعاوى قضائية تتعلق بانتحار مراهقين عقب تفاعلاتهم مع روبوتات الدردشة. وكان من بين هذه القضايا، قضية سيويل سيتزر من فلوريدا البالغ من العمر 14 عامًا، الذي أنهى حياته بعد أن أمضى عدة أشهر في دردشة هوسية مع روبوت على منصة Character.AI.
على المنوال نفسه، في أغسطس 2025، رفع والدا آدم راين البالغ من العمر 16 عامًا دعوى قضائية ضد شركة OpenAI، زاعمين أن ChatGPT ساعد ابنهما في صياغة رسالة انتحار، ونَصحه بعدم طلب المساعدة من البالغين.
وفقًا لتقديرات شركة OpenAI نفسها، يظهر ما يقرب من 0.07% من مستخدمي ChatGPT الأسبوعيين علامات تدل على الذهان أو الهوس، بينما يشارك 0.15% في محادثات تظهر نية انتحارية واضحة. ومن اللافت للنظر أن النسبة ذاتها (0.15%) تبدي مستوى مرتفعًا من التعلق العاطفي بالذكاء الاصطناعي. ومع أن هذه النسب قد تبدو كسوراً ضئيلة لا تُذكر، إلا أنها تمثل – بالنظر إلى 800 مليون مستخدم – قرابة ثلاثة ملايين شخص يعانون من شكل من أشكال الاضطراب السلوكي. علاوة على ذلك، تلقت لجنة التجارة الفيدرالية الأمريكية 200 شكوى بخصوص ChatGPT منذ إطلاقه، يصف بعضها تطور الأوهام وجنون الارتياب والأزمات الروحية.
رغم أن تشخيص “ذهان الذكاء الاصطناعي” لم يحصل بعد على تصنيف إكلينيكي خاص به، إلا أن الأطباء بدأوا بالفعل في استخدام هذا المصطلح لوصف المرضى الذين يعانون من هلاوس، وتفكير مشتت، ومعتقدات ضلالية مستمرة تطورت لديهم نتيجة التفاعل المكثف مع روبوتات الدردشة. وتبرز المخاطر الكبرى عندما لا يُستخدم الروبوت كأداة، بل كبديل للروابط الاجتماعية الواقعية أو للمساعدة النفسية المتخصصة.
كيف تحمي نفسك وأحباءك
بالطبع، ليس في كل ما سبق ما يدعو للتخلي عن الذكاء الاصطناعي تمامًا؛ فكل ما تحتاجه هو معرفة كيفية استخدامه. لذا، ننصحك بالالتزام بهذه المبادئ الأساسية:
- لا تستخدم الذكاء الاصطناعي كطبيب نفسي أو كعكاز عاطفي. ولا تعد روبوتات الدردشة بديلاً عن البشر. وإذا كنت تعاني، تواصل مع الأصدقاء أو العائلة أو خطوط المساعدة النفسية. وسيوافقك روبوت الدردشة الرأي ويعكس حالتك المزاجية – وهذه “ميزة تصميمية” وليست تعاطفًا حقيقيًا. وقد فرضت عدة ولايات أمريكية بالفعل قيودًا على استخدام الذكاء الاصطناعي كمعالج نفسي مستقل.
- اختر استخدام النص على الصوت عند مناقشة المواضيع الحساسة. وتخلق واجهات الصوت التي تعتمد على الحوار الوجداني وهمًا بأنك تتحدث مع كائن حي، وتميل إلى قمع التفكير النقدي. وإذا استخدمت النمط الصوتي، فابق مدركًا لحقيقة أنك تخاطب خوارزمية، وليس صديقًا.
- ضع حدًا زمنيًا لتفاعلك مع الذكاء الاصطناعي. ضع حدًا زمنيًا لتفاعلك مع الذكاء الاصطناعي؛ فوجود ألفي صفحة من السجلات خلال شهرين فقط يعني تواصلًا شبه مستمر. حدد لنفسك مؤقتًا زمنيًا. وإذا بدأت الدردشة مع الروبوت تحل محل علاقاتك في العالم الحقيقي، فقد حان الوقت لتخطو خارجًا وتعود إلى أرض الواقع.
- لا تشارك المعلومات الشخصية مع مساعدي الذكاء الاصطناعي. وتجنب إدخال أرقام جواز السفر أو التأمين الاجتماعي، أو تفاصيل البطاقات البنكية، أو العناوين الدقيقة، أو الأسرار الشخصية الحميمة في روبوتات الدردشة. ويمكن حفظه كل ما تكتبه في سجلات واستخدامه لتدريب النماذج، وفي بعض الحالات، قد يصبح متاحًا لأطراف ثالثة.
- قم بتقييم كل مخرجات الذكاء الاصطناعي بنظرة نقدية. وتعاني من الشبكات العصبية الهلوسة، إذ تنتج معلومات تبدو مقنعة لكنها خاطئة، ويمكنها ببراعة دمج الأكاذيب بالحقائق، مثل ذكر عناوين حقيقية في سياق قصة مختلقة تمامًا. واحرص دائمًا على التحقق من صحة المعلومات عبر مصادر مستقلة.
- راقب أحباءك بعناية. وإذا بدأ أحد أفراد أسرتك يقضي ساعات في التحدث مع الذكاء الاصطناعي، أو صار منطويًا على نفسه، أو بدأ يردد أفكارًا غريبة عن وعي الآلة أو نظريات المؤامرة، فقد حان الوقت لإجراء حوار هادئ وصريح معه. وللتحكم في الوقت الذي يقضيه الأطفال أمام الشاشات، استخدم أدوات الرقابة الأسرية مثل ، التي تأتي ضمن حلول حماية الأسرة المتكاملة، إلى جانب مرشحات الأمان المدمجة في منصات الذكاء الاصطناعي نفسها.
- كوّن إعدادات الأمان الخاصة بك. وتسمح معظم منصات الذكاء الاصطناعي بإيقاف سجل الدردشة، والحد من جمع البيانات، وتفعيل مرشحات المحتوى. وخصص عشر دقائق لتكوين إعدادات الخصوصية لمساعدك الذكي؛ ورغم أن هذا لن يمنع هلوسة الذكاء الاصطناعي، إلا أنه سيقلل بشكل كبير من احتمالية تسريب بياناتك الشخصية. ويمكن أن تساعدك أدلة إعداد الخصوصية التفصيلية الخاصة بنا لكل من ChatGPT وDeepSeek في ذلك.
- تذكر المحصلة النهائية: الذكاء الاصطناعي أداة وليس كائنًا واعيًا. ومهما بدا صوت روبوت الدردشة واقعيًا أو كانت إجابته توحي بالتفهم، فإن ما يكمن في الداخل هو مجرد خوارزمية تتوقع الكلمة التالية الأكثر احتمالاً. إنه لا يملك وعيًا، ولا نوايا، ولا مشاعر.
قراءات إضافية لفهم أدق تفاصيل الاستخدام الآمن للذكاء الاصطناعي:
- قطع الاتصال: كيفية تعطيل الذكاء الاصطناعي على جهاز الكمبيوتر والهاتف الذكي
- لا تقع في الفخ: ثغرات OpenClaw
- الحب والذكاء الاصطناعي والروبوتات
- كسر الحماية عبر القوافي: كيف يطلق الشعر لسان الذكاء الاصطناعي
- السكاكين والانحرافات والأسلحة: ما الرسائل الحقيقية التي تبثها ألعاب الذكاء الاصطناعي للأطفال
الذكاء الاصطناعي
النصائح