تخطي إلى المحتوى الرئيسي

ما هي الهلوسة بالذكاء الاصطناعي؟

يتم عرض مطالبات ChatGPT المختلفة على الشاشة.

الهلوسة بالذكاء الاصطناعي هي حالة تقدم فيها أداة الذكاء الاصطناعي مخرجات غير دقيقة أو مضللة أو غير متماسكة ، بسبب خوارزمياتها التي تعثر على أنماط في البيانات غير موجودة أو تفسر هذه الأنماط بشكل غير صحيح.

مع توسع قدرات وشعبية الذكاء الاصطناعي على مدار العامين الماضيين ، تم الكشف عن بعض عيوبه ونقاط ضعفه.

إن أحد أكبر الأسئلة التي يطرحها الناس هو ما إذا كان الذكاء الاصطناعي دقيقًا أم لا. في كثير من الحالات ، ثبت أنه أداة مفيدة بشكل لا يصدق للتحقق من صحة المعلومات والبحث فيها ، ولكن في حالات أخرى ، كانت النتائج التي قدمتها غير صحيحة أو مضللة.

نظرًا لنطاق حالات الاستخدام التي يتم تطبيق الذكاء الاصطناعي عليها في العالم الحديث ، فإن عواقب عدم الدقة هذه يمكن أن تكون شديدة للغاية. في هذه المقالة ، سوف ننظر في سبب حدوث هلوسة الذكاء الاصطناعي ، والتداعيات من وجهات النظر التكنولوجية والمجتمعية ، وما يمكنك القيام به لتقليل مخاطر هلوسة الذكاء الاصطناعي في استخدامك الخاص.

كيف تحدث هلوسة الذكاء الاصطناعي؟

هناك عدة أسباب مختلفة لحدوث هلوسة الذكاء الاصطناعي ، وفي كثير من الحالات ، تنجم عن مزيج منها في نفس الوقت. يمكن أن تشمل (ولا تقتصر بالضرورة على):

  • عدم وجود بيانات تدريب كافية لتوجيه النتائج الشاملة والدقيقة من نموذج الذكاء الاصطناعي.
  • وجود الكثير من بيانات التدريب ، مما يؤدي إلى الكثير من "ضجيج البيانات" غير ذي الصلة الذي يتم الخلط بينه وبين المعلومات ذات الصلة والمهمة.
  • التحيزات داخل البيانات التي تنعكس في النتائج المتولدة.
  • يقوم نموذج الذكاء الاصطناعي ببساطة بعمل افتراضات واستنتاجات خاطئة من المعلومات التي تم تغذيتها به.
  • عدم وجود سياق في العالم الحقيقي داخل نموذج الذكاء الاصطناعي ، مثل الخصائص الفيزيائية للكائنات أو المعلومات الأوسع ذات الصلة بالنتائج التي يتم إنشاؤها.

كيف تبدو هلوسة الذكاء الاصطناعي؟

لا توجد مجموعة واحدة من أعراض الهلوسة للذكاء الاصطناعي لأنها تعتمد على عيوب النموذج والعملية المتضمنة. ومع ذلك ، يمكن أن تظهر الهلوسة الخاصة بالذكاء الاصطناعي عادةً بإحدى هذه الطرق الخمس:

  • التنبؤات غير الدقيقة : قد ينتهي الأمر بنماذج الذكاء الاصطناعي بالتنبؤ بشيء ما سيحدث في المستقبل ، وهو أمر ليس له فرصة واقعية لحدوثه ، أو ربما لا توجد فرصة على الإطلاق.
  • الملخصات التي تحتوي على معلومات مفقودة : في بعض الأحيان ، قد تفقد نماذج الذكاء الاصطناعي السياق أو المعلومات الحيوية التي قد يحتاجونها لإنشاء نتائج دقيقة وشاملة. يمكن أن يكون هذا من خلال نقص البيانات التي يتم تغذيتها في النموذج ، أو عدم قدرة النموذج على البحث عن السياق الصحيح من مصادر أخرى.
  • الملخصات بمعلومات ملفقة : على غرار النقطة السابقة ، قد ينتهي الأمر ببعض نماذج الذكاء الاصطناعي إلى تعويض نقص المعلومات الدقيقة عن طريق اختلاق الأشياء بالكامل. يمكن أن يحدث هذا غالبًا عندما تكون البيانات والسياق الذي يعتمد عليه النموذج غير دقيق في المقام الأول.
  • الإيجابيات والسلبيات الكاذبة : غالبًا ما يستخدم الذكاء الاصطناعي لاكتشاف المخاطر والتهديدات المحتملة ، سواء كانت أعراض المرض في بيئة الرعاية الصحية أو حالات النشاط الاحتيالي في البنوك والتمويل. قد تحدد نماذج الذكاء الاصطناعي أحيانًا تهديدًا غير موجود ، أو على الطرف الآخر من المقياس ، قد تفشل في تحديد التهديد الموجود.
  • نتائج غير متماسكة : إذا شاهدت صورًا تم إنشاؤها بواسطة الذكاء الاصطناعي لأشخاص لديهم عدد خاطئ من الأذرع والأرجل أو سيارات ذات عجلات كثيرة ، فستعرف إذن أن الذكاء الاصطناعي لا يزال بإمكانه تحقيق نتائج لا معنى لها للبشر.

لماذا من المهم تجنب هلوسة الذكاء الاصطناعي؟

قد تعتقد أن الهلوسة بالذكاء الاصطناعي ليست مشكلة كبيرة وأن تشغيل البيانات من خلال النموذج مرة أخرى يمكن أن يحل المشكلة من خلال توليد النتائج الصحيحة.

لكن الأمور ليست بهذه البساطة ، وأي هلوسة تتعلق بالذكاء الاصطناعي يتم تطبيقها على حالات الاستخدام العملي أو التي يتم إصدارها في المجال العام يمكن أن يكون لها بعض العواقب الوخيمة جدًا على أعداد كبيرة من الناس:

الاستخدام غير الأخلاقي للذكاء الاصطناعي

واستخدام الذكاء الاصطناعي ، في بشكل عام ، تحت دائرة الضوء في الوقت الحالي ، ومن المتوقع بشكل متزايد أن تستخدم المنظمات التي تستخدم التكنولوجيا الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية لا تضر بالناس أو تعرضهم للخطر. إن السماح للهلوسة بالذكاء الاصطناعي بالمرور دون رادع - سواء عن قصد أو بغير علم - لن يلبي تلك التوقعات الأخلاقية.

ثقة الجمهور والمستهلك

فيما يتعلق بالنقطة السابقة ، لا يزال الكثير من الناس قلقين بشأن استخدام الذكاء الاصطناعي ، من كيفية استخدام بياناتهم الشخصية إلى ما إذا كانت القدرات المتزايدة للذكاء الاصطناعي قد تجعل وظائفهم عفا عليها الزمن. قد تؤدي الحالات المستمرة لأمثلة الهلوسة بالذكاء الاصطناعي في المجال العام إلى تآكل الثقة في البناء ببطء بين الجمهور ، وقد تؤدي إلى نجاح محدود لحالات استخدام الذكاء الاصطناعي والشركات على المدى الطويل.

اتخاذ القرارات الخاطئة

تحتاج الشركات والأفراد إلى أن يكونوا قادرين على اتخاذ أفضل القرارات الممكنة وأكثرها استنارة ، وأن يعتمدوا بشكل متزايد على البيانات والتحليلات ونماذج الذكاء الاصطناعي لإزالة التخمين وعدم اليقين من تلك القرارات. إذا تم تضليلهم من خلال النتائج غير الدقيقة من نماذج الذكاء الاصطناعي ، فقد يكون للقرارات الخاطئة التي يتخذونها نتائج كارثية ، من تهديد ربحية الشركة إلى التشخيص الخاطئ لمريض طبي.

المخاطر القانونية والمالية لتضليل الذكاء الاصطناعي

كما توضح القضية القضائية المذكورة أعلاه باقتدار ، فإن المعلومات غير الدقيقة الناتجة عن الذكاء الاصطناعي يمكن أن تسبب ضررًا كبيرًا من النواحي القانونية والمالية. على سبيل المثال ، قد يكون المحتوى الذي تم إنشاؤه باستخدام الذكاء الاصطناعي تشهيريًا تجاه بعض الأشخاص أو الشركات ، أو قد ينتهك بعض اللوائح القانونية ، أو قد يكون في بعض الحالات القصوى اقتراحًا أو تحريضًا على الأشخاص للقيام بأنشطة غير مشروعة.

تجنب التحيز

نحن نعيش في عالم يعمل فيه الناس بلا كلل لضمان معاملة الجميع على قدم المساواة ودون تحيز تجاه نوع واحد على آخر. ومع ذلك ، يمكن أن تؤدي بيانات الذكاء الاصطناعي المتحيزة إلى تعزيز العديد من هذه التحيزات ، غالبًا عن غير قصد. وخير مثال على ذلك هو استخدام الذكاء الاصطناعي في التوظيف والتوظيف: يمكن أن تؤدي الهلوسة بالذكاء الاصطناعي إلى نتائج متحيزة يمكن أن تؤثر على التنوع والمساواة والجهود التي تبذلها المنظمة.

ما هي بعض الأمثلة النموذجية للهلوسة بالذكاء الاصطناعي؟

ثبت أن تجنب الهلوسة بالذكاء الاصطناعي يمثل مهمة صعبة للجميع في الصناعة. ولا يحدث ذلك فقط مع العمليات الصغيرة التي لا تتمتع بالخبرة والموارد. تثبت هذه الأمثلة الثلاثة للهلوسة بالذكاء الاصطناعي أنها تحدث لبعض أكبر شركات التكنولوجيا في العالم:

Meta AI ومحاولة اغتيال دونالد ترامب

في أعقاب محاولة اغتيال المرشح الرئاسي آنذاك دونالد ترامب في يوليو 2024 ، قامت Meta AI رفض chatbot في البداية الرد على أي أسئلة حول الحادث ثم ادعى لاحقًا أن الحادث لم يحدث أبدًا. أدت هذه المشكلة إلى قيام Meta بتعديل خوارزميات أداة الذكاء الاصطناعي الخاصة بها ، لكنها أدت إلى ادعاءات عامة بالتحيز وفرض الرقابة على وجهات النظر المحافظة.

هلوسة ChatGPT والبحث القانوني المزيف

في عام 2023 ، قدم رجل في كولومبيا مطالبة بإصابة شخصية ضد شركة طيران. استخدم محاموه أداة الذكاء الاصطناعي الرائدة ChatGPT لأول مرة لتجميع قضيته وإعداد المذكرات القانونية. ومع ذلك ، على الرغم من تأكيدات ChatGPT بأن الحالات الست للسوابق القانونية التي وجدها كانت حقيقية ، إلا أنه لم يتم العثور على أي منها.

وقعت مدينة سيدني في حب المستخدمين

حيث ورد أن سيدني ، روبوت المحادثة التابع لشركة Microsoft الذي يعمل بالذكاء الاصطناعي ، قد أخبر كاتب عمود في مجال التكنولوجيا في صحيفة نيويورك تايمز بأنه يحبه وأنه ينبغي عليه ترك زوجته لتكون معه بدلاً من ذلك. على مدار ساعتين ، قال كيفن روز إن سيدني شاركت معه بعض "الأوهام المظلمة" حول نشر معلومات مضللة حول الذكاء الاصطناعي والتحول إلى إنسان.

ما الذي يمكن فعله لتقليل مخاطر الإصابة بالهلوسة بالذكاء الاصطناعي؟

نظرًا لأهمية تجنب مخاطر هلوسة الذكاء الاصطناعي ، فإن الأمر متروك للأشخاص الذين يستخدمون نماذج الذكاء الاصطناعي لاتخاذ جميع الخطوات العملية الممكنة للتخفيف من أي ظروف يمكن أن تؤدي إلى حدوث مشكلات. نوصي بما يلي:

التأكد من وجود غرض واضح لنموذج الذكاء الاصطناعي

نظرًا لتوسع استخدام الذكاء الاصطناعي في السنوات الأخيرة ، فإن أحد الأخطاء الشائعة هو أن تستخدم المؤسسات نماذج الذكاء الاصطناعي من أجل استخدامها ، دون أي اعتبار للنتائج التي يتم الحصول عليها تبحث عنه. إن التحديد الواضح للهدف العام لاستخدام نموذج ذكاء اصطناعي يمكن أن يضمن أن النتائج مركزة ويتجنب خطر الهلوسة بالذكاء الاصطناعي من خلال نهج وبيانات عامة للغاية.

تحسين جودة بيانات التدريب

كلما كانت جودة البيانات التي يتم إدخالها في نموذج الذكاء الاصطناعي أفضل ، كانت جودة النتائج التي ستخرج منه أفضل. سيعتمد نموذج الذكاء الاصطناعي الجيد على بيانات ذات صلة ، وخالية من التحيز ، ومنظمة بشكل جيد ، وقد تمت تصفيتها من أي "ضوضاء بيانات" غريبة. يعد هذا ضروريًا للتأكد من أن النتائج التي تم الحصول عليها دقيقة ، وفي السياق الصحيح ، ولن تؤدي إلى حدوث مشكلات أخرى.

إنشاء قوالب بيانات واستخدامها

من الطرق الجيدة لضمان توافق نتائج نموذج الذكاء الاصطناعي بشكل وثيق مع الغرض المقصود منها استخدام القوالب للبيانات التي يتم إدخالها فيها. وهذا يضمن أنه في كل مرة يتم فيها استخدام نموذج ذكاء اصطناعي ، فإنه يعتاد على البيانات التي يتم توفيرها بنفس الطريقة المتسقة ويمكنه تقديم نتائج متسقة ودقيقة في السياق الصحيح.

الحد من نطاق الاستجابات والنتائج

يمكن أن يساعد وضع المزيد من القيود على نموذج الذكاء الاصطناعي في تضييق نطاق النتائج المحتملة نحو تلك المطلوبة. هذا هو المكان الذي تدخل فيه أدوات التصفية والعتبات ، مما يمنح نماذج الذكاء الاصطناعي بعض الحدود التي تشتد الحاجة إليها للحفاظ على تحليلها وتوليدها على المسار الصحيح باستمرار.

اختبار النموذج وتحسينه باستمرار

مثلما أن التحسين المستمر أمر حيوي لتطوير البرمجيات الجيدة في عالم متغير باستمرار ، فإن الأمر نفسه ينطبق على نموذج الذكاء الاصطناعي الجيد. لذلك ، ينبغي اختبار جميع نماذج الذكاء الاصطناعي وتحسينها بانتظام حتى يمكن إعادة معايرتها للتطورات في البيانات والمتطلبات والمعلومات السياقية المتاحة.

ضع الضوابط والتوازنات البشرية في مكانها الصحيح

إن الذكاء الاصطناعي ليس معصومًا عن الخطأ إلى درجة أنه يمكن الوثوق به للعمل بشكل مستقل تمامًا ، لذا فإن ضمان وجود بعض الرقابة البشرية على الأقل أمر ضروري. إن قيام شخص بفحص مخرجات الذكاء الاصطناعي يمكن أن يحدد أي هلوسة حدثت بالذكاء الاصطناعي ويضمن أن الإخراج دقيق ومناسب لمتطلباته المعلنة.

تعزيز توفير الأمن السيبراني الخاص بك

إذا كانت الهلوسة الخاصة بالذكاء الاصطناعي معرضة لخطر إدخال ثغرات أمنية عبر الإنترنت ، فهذا سبب وجيه لضمان وجود أفضل حل ممكن للأمن السيبراني. يتضمن Kaspersky Plus Internet Security فحصًا في الوقت الحقيقي لمكافحة الفيروسات كمعيار قياسي بحيث تتم معالجة أي تهديدات أمنية يتم تقديمها بسبب هلوسة الذكاء الاصطناعي والتخلص منها قبل أن يكون لها أي آثار ضارة.

مقالات ذات صلة:

ما هي الهلوسة بالذكاء الاصطناعي؟

يمكن أن تؤدي الهلوسة الخاصة بالذكاء الاصطناعي إلى معلومات خاطئة أو مضللة ، مما يؤدي إلى مخاطر جسيمة. تعلم كيفية التعرف عليها ومنعها.
Kaspersky logo

مقالات ذات صلة