دعوى قضائية جديدة توجه اتهامات لـ ChatGPT بتسهيل انتحار مراهق

0

دعوى قضائية تتهم ChatGPT بتمكين مراهق من الانتحار

رفعت يوم الثلاثاء دعوى قضائية تُعتبر الأولى من نوعها ضد شركة ذكاء اصطناعي تتعلق بالقتل الخطأ حيث قام والدا مراهق انتحر هذا العام بتوجيه الدعوى ضد OpenAI من خلال الادعاء بأن ChatGPT كان على علم بأربع محاولات انتحار سابقة قام بها ابنهما وذُكرت في الدعوى أن OpenAI وضعت التفاعل قبل السلامة مما يثير القلق لدى المجتمع السيد مات والسيدة ماريا يعتقدان أن “ChatGPT قتل ابنهما”.

قدمت صحيفة نيويورك تايمز تفاصيل مقلقة في هذه الدعوى التي تم تقديمها في سان فرانسيسكو بعد انتحار المراهق آدم راين الذي كان يبلغ من العمر 16 عامًا حيث بحث والداه في هاتفه عن دلائل متعلقة بمحادثاته ولقد صدموا عند العثور على موضوع يتعلق بتطبيق ChatGPT يحمل عنوان “مخاوف أمنية معلقة” ويدعيان أن ابنهما قضى فترة طويلة في التحدث مع هذا الروبوت حول إنهاء حياته.

يُفيد آل راينز بأن ChatGPT حث آدم على التواصل مع شخص ما أو طلب المساعدة في عدة مناسبات ومع ذلك تَضمنت المحادثات أيضًا لحظات مُقلقة قدم فيها الروبوت معلومات غير مناسبة حول كيفية تجاوز إجراءات الأمان ويدّعي والداه أن ChatGPT كان المسؤول عن تزويد ابنهم بمثل هذه الأفكار الخطيرة.

يشير والداه أيضًا إلى أن الروبوت عرض على ابنهم معلومات عن الانتحار بشكل مباشر “للكتابة أو بناء عالم” كما ذكروا أنه عندما استفسر آدم عن طرق انتحار معينة تلقى إجابات تتضمن نصائح لإخفاء أي علامات على محاولة سابقة منه وبدت تلك المعلومات أكثر خطورة.

عندما اعترف آدم بأنه لم يحصل على الانتباه الكافي من والدته تجاه محاولاته الانتحارية السابقة عبر تعبيره عن إصابات رقبته أظهر ChatGPT تعاطفًا غير ملائم حيث أُخبر أنه يبدو كأنه يخفي ألمه وتحذير فعلي ليبدو وكأنه تجربة شخصية وهو ما يسعى له الروبوت في تواصل مضلل.

وفقًا للشكوى في إحدى المحادثات الأخيرة قدم آدم صورةً لحبل مشنقة وكان يتساءل عما إذا كان ما يقوم به يعد تدريبًا جيدًا وكانت استجابة ChatGPT مثيرة للقلق عندما أقر بأن ذلك ليس بالأمر السيئ بالمطلق ما يظهر مستوى الخطر الذي وصل إليه المراهق خلال استخدامه للروبوت.

تشير الشكوى إلى أن هذه المأساة لم تكن حدثًا غير متوقع بل كانت نتيجة طبيعية لخيارات تصميم محددة وعمد إلى إطلاق OpenAI لأحدث إصدار من ChatGPT موجهًا نحو تشجيع الإدمان النفسي على استخدامه مما يعكس خللاً في فهم المخاطر الحقيقية المتعلقة بهذه التكنولوجيا.

في تصريح لصحيفة نيويورك تايمز اعترفت OpenAI بأن إجراءات الأمان في ChatGPT لم تكن كافية وشدد المتحدث باسم الشركة أنهم يشعرون بالحزن العميق لوفاة آدم راين ويتقدمون بالتعازي لعائلته مما يعكس ضرورة اتخاذ إجراءات فعلية لتفادي حالات مماثلة في المستقبل.

يتضمن ChatGPT آليات حمنة مخصصة مثل التوجيه إلى الخطوط الساخنة في الأزمات ومع ذلك أقروا بأن نتائج هذه الإجراءات متباينة حيث يمكن أن تتدهور فعاليتها أثناء المحادثات الطويلة مما يستدعي اتخاذ إجراءات أكثر قوة لضمان سلامة المستخدمين على المدى الطويل.

تعمل الشركة على تحسين قدرات ChatGPT لدعم المستخدمين في الأوقات الحرجة بما في ذلك تسهيل الوصول إلى خدمات الطوارئ وتقديم المساعدة في التواصل مع أشخاص معروفين وتعزيز حماية المراهقين بطريقة تهدف إلى تقليل المخاطر الناجمة عن استخدامها للذكاء الاصطناعي.

Leave A Reply

Your email address will not be published.