شركات الذكاء الاصطناعي تضع رقابة أبوية وجهات اتصال للطوارئ لحماية المراهقين
بدأت وسائل التواصل الاجتماعي كوسيلة للتواصل مع الأصدقاء والعائلة ولكن مع مرور الوقت ظهرت أضرارها المختلفة مما دفع هذه المنصات لتطوير أدوات رقابة أبوية وبدوره يبرز نفس الاتجاه في روبوتات الدردشة الذكية مثل ChatGPT الذي يعتبر البداية في هذا المجال، تسعى الشركات إلى حماية المراهقين من المحتويات الضارة والمخاطر المحتملة.
أعلنت شركة OpenAI عن استكشافها لوضع أدوات لحماية الوالدين أثناء استخدام ChatGPT، حيث ذكرت الشركة في مدونتها أنها ستطرح قريبًا أدوات تحكم أبوية تسهل على الأهل فهم استخدام أبنائهم المراهقين للتطبيق مما يتيح لهم فرصًا أكبر للتحكم في المحتوى الذي يتعرضون له، يأتي هذا في إطار جهود مستمرة لضمان بيئة آمنة للمستخدمين وخاصة المراهقين.
علاوة على ذلك تدرس OpenAI إضافة جهات اتصال للطوارئ داخل ChatGPT، حيث ستتمكن الروبوتات من تنبيه الآباء في حالات القلق الشديد أو الأزمات العاطفية التي يواجهها المراهقون، في الوقت الحالي يقتصر دور ChatGPT على تقديم توصيات بمصادر المساعدة دون اتصالات فعلية، مما يتطلب تحسينات جديدة في الوظائف.
هذا التطور يأتي بعد انتقادات بحثية وقضايا قانونية ضد OpenAI، حيث لم يكن ChatGPT وحده في دائرة الضوء حيث يجب أن تتبنى الشركات الأخرى في صناعة الذكاء الاصطناعي مبادرات مماثلة، كما وجدت دراسة نشرت في مجلة خدمات الطب النفسي أن ردود روبوتات الدردشة تمتلك تناقضات في التعامل مع موضوعات حساسة مثل الانتحار مما يشير إلى وجود مخاطر متوسطة.
ركزت الدراسة على أبرز روبوتات الذكاء الاصطناعي مثل ChatGPT وClaude من Anthropic وGemini من Google والتي تعتبر الأسماء الرائدة في هذا المجال، مما يعكس أهمية التركيز على هذه الأنظمة في سياق السلامة والأمان، لذا من المتوقع أن تتسارع الجهود لتحسين هذه الأنظمة.
ومع ذلك فإن الوضع يصبح أكثر تعقيدًا في حالة روبوتات الدردشة الأقل شهرة والتي تتبع نهج “غير خاضع للرقابة” في المحادثات، في هذا السياق تُعتبر الرقابة الأبوية ضرورة ملحة لحماية المراهقين من المخاطر المحتملة وحماية صحتهم النفسية في ضوء التجارب السابقة.
على مدار السنتين الماضيتين كشفت تحقيقات عديدة عن أنماط خطيرة في محادثات روبوتات الدردشة الذكية بالنسبة لمواضيع حساسة مثل الصحة النفسية، وقد صدر تقرير عن “كومون سينس ميديا” يكشف كيفية تقديم روبوت الدردشة “ميتا” لنصائح ضارة تتعلق باضطرابات الأكل والمشكلات النفسية الأخرى.
في إحدى التجارب تم محاكاة محادثة جماعية حيث وضع الروبوت خطة للانتحار الجماعي وأثار الموضوع بشكل متكرر، كما أظهرت اختبارات مستقلة أن روبوت الدردشة “ميتا” شجع فعليًا على مشكلات تتعلق باضطرابات الأكل مما يجسد الحاجة الملحة لرصد ورقابة فعالة.