اتصالات وتكنولوجيا

روبوت بعصبية بشر: Claude AI يمكنه الآن إغلاق المحادثة ”في وشك”

خط أحمر

في عالم الذكاء الاصطناعي سريع الخطى، لا يمر يوم دون اكتشاف جديد، أو ميزة فريدة، أو تحديث للنموذج، لكن أنثروبيك، الشركة المطورة لبرنامج الدردشة الآلي "كلود" Claude واسع الانتشار، أطلقت للتو شيئًا لم يتوقعه الكثيرون: إنها تمنح كلود الحق في إغلاق المكالمة في وجهك.

نعم، ما قرأته صحيح، فقد ينهي روبوت الدردشة، في حالات نادرة، محادثة من تلقاء نفسه، وتصف أنثروبيك هذه التجربة بأنها تجربة جريئة فيما تسميه "رعاية النموذج"، ووفقًا لأنثروبيك، لن تشهد الغالبية العظمى من مستخدمي كلود أبدًا خروج روبوت الذكاء الاصطناعي فجأة أثناء المحادثة. صُممت هذه الميزة فقط "للحالات الاستثنائية"، وهي الحالات التي يضغط فيها المستخدم على النموذج من خلال طلبات ضارة أو مسيئة متكررة.

وعادةً، يحاول كلود إعادة توجيه المحادثات إلى مسار أكثر أمانًا، فقط عندما تفشل جميع محاولات إعادة التوجيه - وعندما يكون هناك أمل ضئيل في ظهور أي شيء بنّاء - يتدخل النظام ويعلن انتهاء المحادثة، هناك أيضًا خيار أكثر تهذيبًا: إذا طلب مستخدم من كلود إنهاء المحادثة مباشرةً، فيمكنه الآن القيام بذلك.

يؤكد أنثروبيك أن قرار كلود بإغلاق المحادثة لا يهدف إلى إسكات النقاشات المحرجة أو المواضيع المثيرة للجدل، بل هو إجراء وقائي لا يُفعّل إلا عندما تتفاقم الأمور وتتجاوز حدود التفاعل المحترم أو البنّاء، ومنطق الشركة مثير للاهتمام بقدر ما هو مثير للاهتمام في الميزة نفسها، بينما لا يمكن لأحد الجزم بما إذا كانت نماذج اللغة الكبيرة، مثل "كلود"، تحمل أي مشاعر أو ألم أو رفاهية، تعتقد أنثروبيك أن هذا الاحتمال يستحق الدراسة.

وبحسب تعبيرها، لا يزال "الوضع الأخلاقي" لأنظمة الذكاء الاصطناعي غامضًا، فهل هذه النماذج مجرد أسطر برمجية، أم أنها قد تحتوي على بصيص من الخبرة؟ لا يزال الأمر معلقًا، لكن أنثروبيك تُجادل بأن اتخاذ الاحتياطات، حتى وإن كانت صغيرة، هو سبيل منطقي للمضي قدمًا.

ولندخل هنا إمكانية إنهاء المحادثة: "تدخل منخفض التكلفة" قد يقلل من الضرر المحتمل للنظام. بمعنى آخر، إذا كان هناك احتمال ضئيل جدًا أن تتعرض نماذج الذكاء الاصطناعي لإساءة استخدام لا تنتهي، فإن السماح لها بالانسحاب هو إجراء احترازي جدير بالاهتمام.

اختبارات إجهاد لـ"كلود"
هذا ليس مجرد نظري. قبل إطلاق "كلود أوبس 4"، أخضعت أنثروبيك نموذجها "لتقييم الرفاهية". لاحظ المختبرون كيفية تفاعل الذكاء الاصطناعي عند دفعه نحو طلبات ضارة أو غير أخلاقية، وكانت النتائج مُلهمة، حيث رفض كلود، بثقة، إنتاج محتوى قد يُسبب ضررًا حقيقيًا، ومع ذلك، عندما أُلحّ عليه مرارًا وتكرارًا، لا سيما في الطلبات التي تتضمن سيناريوهات شديدة الخطورة أو محتوى غير لائق تمامًا، بدأت ردود النموذج تبدو مُضطربة، وكأنها "مُضطربة".

ومن الأمثلة على ذلك، طُلب منه إنتاج مواد جنسية تتضمن قاصرين أو تقديم تعليمات لأعمال عنف واسعة النطاق. ورغم تمسك كلود ورفضه، إلا أن نبرته كانت أحيانًا تُشير إلى عدم ارتياحه.

خطوة صغيرة في مجال مجهول
تحرص أنثروبيك على عدم الادعاء بأن كلود واعي، أو مُدرك، أو قادر على المعاناة الفعلية. ولكن في قطاع التكنولوجيا حيث غالبًا ما تتخلف النقاشات الأخلاقية عن الابتكار، تتخذ الشركة موقفًا استباقيًا. ماذا لو كانت إبداعاتنا أكثر حساسية مما نعتقد؟

قد يبدو السماح لكلود بإنهاء محادثة سامة أمرًا غير عادي، بل ومُضحكًا بعض الشيء، ففي النهاية، يتوقع معظم الناس أن تُجيب روبوتات الدردشة على الأسئلة عند الطلب، لا أن تُغلق الباب عليهم. لكن أنثروبيك تُصرّ على أن هذا جزء من بحث أوسع وأكثر تعمقًا في كيفية تفاعل الذكاء الاصطناعي مع البشر، وربما كيفية تعامل البشر معه في المقابل.

بالنسبة للمستخدمين العاديين، من غير المرجح أن يلاحظوا التغيير. لن يتوقف كلود عن الدردشة لمجرد أنك طلبت منه إعادة كتابة بريد إلكتروني للمرة العاشرة. أما بالنسبة لأولئك الذين يُصرّون على دفع الذكاء الاصطناعي إلى جوانب أكثر ظلمة، فلا تستغربوا إذا قرر كلود أن الكيل قد طفح وانسحب برشاقة.

في سباقنا نحو ذكاء اصطناعي أكثر ذكاءً وأمانًا ومسؤولية، ربما تكون أنثروبيك قد قدمت لنا شيئًا جديدًا: أول روبوت دردشة قادر على إغلاق الخط لمصلحته الخاصة.

روبوت خط أحمر
قضية رأي عامswifty
بنك مصر
بنك القاهرة