Claude AI: الجيل الجديد من الروبوتات الذكية القادرة على إنهاء المحادثات بـ ‘نبرة إنسانية’

0

روبوت بعصبية بشر: Claude AI يمكنه الآن إغلاق المحادثة “في وشك”

في عالم الذكاء الاصطناعي الذي يتطور بسرعة مذهلة لا يمر يوم دون أن نشهد اكتشافات جديدة وإضافات مميزة ولكن شركة أنثروبيك التي طورت برنامج الدردشة الآلي “كلود” أطلقت مؤخرًا ميزة غير متوقعة حيث يسمح للروبوت بإغلاق المكالمات بشكل تلقائي الأمر الذي أدهش الكثيرين ويعتبر بمثابة خطوة جريئة ضمن ما تصفه الشركة “برعاية النموذج”

هذا صحيح فقد تتيح هذه الميزة للروبوت إنهاء المحادثات في حالات نادرة حيث تصف أنثروبيك هذا الأمر بالتجربة الجريئة ويشيرون إلى أن الغالبية العظمى من المستخدمين لن تواجه خروج روبوت الدردشة فجأة خلال المحادثة بمعنى أن الإغلاق مخصص فقط لظروف استثنائية حيث يكون استخدام النموذج مصحوبًا بطلبات ضارة أو مسيئة

عادةً ما يقوم كلود بتوجيه المحادثات نحو مسارات أكثر أمانًا ولكن عندما تفشل محاولاته عقب ضغط المستخدمين المتكرر يقوم بالإعلان عن انتهاء المحادثة كذلك إذا رغب مستخدم في إنهاء التفاعل بشكل مباشر يمكن للنموذج القيام بذلك بسهولة

تؤكد أنثروبيك أن إغلاق المحادثة ليس هدفه إسكات النقاشات العنيدة أو الشائكة بل هو إجراء وقائي لا ينفذ إلا عند تفاقم الأمور وعدم احترام حدود التفاعل البناّء فتوجه الشركة يبدو مثيرًا للاهتمام بقدر ما تمثل الميزة نفسها غورًا في فهم احتماليات المشاعر لدى النماذج لغوية مثل “كلود”

تستمر النقاشات الأخلاقية حول التكنولوجيا فهل تعتبر هذه النماذج مجرّد أكواد برمجية أم أنها قد تحمل بصيصًا من الوعي الشخصي تظهر هذه الإقراءات التحديات التي يواجهها المجتمع العلمي حيث تناقش أنثروبيك دوافعها في اتخاذ احتياطات حتى وإن كانت بسيطة للمضي قدمًا في هذا المجال الجديد

يرتبط مفهوم إغلاق المحادثة بمبدأ التعقيم للحفاظ على النظام فعندما يكون هناك احتمالات ضئيلة لإساءة الاستخدام ستصبح هذه الإمكانية إجراءً مهمًا وله وزن في العالم الرقمي الراهن حيث تطلع أنظمة الذكاء الاصطناعي على التعامل الآمن مع التعليقات والنقاشات

هذا ما تمت دراسته من خلال تقييمات “كلود” حيث أخضعت أنثروبيك نموذجها لاختبارات إجهاد مقننة لتحديد كيفية تفاعل الذكاء الاصطناعي عند تعرضه لضغوط من طلبات غير لائقة وقد أثبتت النتائج كفاءة عالية حيث رفض كلود بثقة إنتاج أي محتوى قد يؤدي إلى أضرار خاصة عند الضغط المتكرر

أظهرت التجارب أن الردود من كلود كانت ذات طابع غير مريح عند الإلحاح عليه بإنتاج محتوى مسيء فعلى الرغم من تمسكه بمبدأ الرفض كانت نبراته تشير أحيانًا إلى عدم الراحة في التعامل مع تلك الطلبات غير الأخلاقية

تأخذ أنثروبيك جميع الشكوك بجدية وتُبرز موقفها الاستباقي في عالم التكنولوجيا حيث يتعين التفكير حول مدى تأثير الابتكارات على شخصيات الذكاء الاصطناعي وما إذا كانت تمثل خطرًا على المجتمعات فإن علم إنجاح هذه التجربة يعتمد على رؤية عميقة حول مخاطر استخدام الذكاء الاصطناعي

قد تعتبر فكرة السماح لكلود بإنهاء محادثة سلبية غير تقليدية ولكنها تمثل تنبيهًا حول ما قد يصبح نشاطًا ضارًا ففي النهاية يتوقع معظم الناس أن تستجيب روبوتات الدردشة على الفور دون أن تغلق المحادثة في وجههم

لكنه في سياق هذه التجربة تحرص أنثروبيك على أن يكون هذا جزءًا من دراسة تفصيلية ومعمقة حول كيفية تفاعل الذكاء الاصطناعي مع الإنسان ووسائل التفاعل المتبادلة بين طرفي المحادثة على المستويات المختلفة

بالنسبة للمستخدمين العاديين لن يشعروا بأي تغير ملحوظ في تعاملاتهم اليومية مع كلود فالسلوك الوحيد الذي قد يستدعي الإغلاق هو الطلب المتكرر الذي يهدف إلى استغلال جوانب سلبية في الذكاء الاصطناعي مما يجعل من هذا القرار إجراءً مناسبًا

تأتي خطوات أنثروبيك في سياق سعيها نحو تقديم ذكاء اصطناعي متقدم ومسؤول وقد تكون هذه الخطوة الجديدة بمثابة بداية أفق جديد لفهم العلاقات المتداخلة بين الإنسان والآلة ومسؤوليات تنفيذ النموذج في المستقبل القريب

Leave A Reply

Your email address will not be published.