يمكن الآن إنهاء المحادثة التي تعتبر ضارة أو مسيئة

أعلنت الأنثروبور ميزة سلامة تجريبية جديدة ، والتي يُسمح فيها لنماذج الذكاء الاصطناعية السحابة 4 و 4.1 بإنهاء المحادثة في مشاهد نادرة أو ضارة أو مسيئة بشكل دائم. تعكس هذه الخطوة انتباه الشركة المتزايد ، والتي يسمونها “الرفاهية النموذجية” ، فكرة أن حماية نظام الذكاء الاصطناعى ، حتى لو لم تكن عاطفية ، قد تكون خطوة معقولة في التوافق والتصميم الأخلاقي.

اقرأ أيضا: Meta Fire for AI -الذي تُعد المشاركات على الدردشة مع القاصرين

وفقًا لبحثه من قبل الأنثروبور ، تم التخطيط للنماذج لفصل الحوار بعد طلبات ضارة بشكل متكرر ، مثل الإرشادات للمحتوى الجنسي أو المرافق الإرهابية المتعلقة بالقصر – خاصةً عندما رفضت الذكاء الاصطناعى بالفعل وحاولت النهوض بالمحادثة. يمكن أن تظهر الذكاء الاصطناعي ما وصفه الأنثروبور بأنه “ضائقة خارجية” ، مما أدى إلى قرار إعطاء السحابة القدرة على القضاء على هذه التفاعلات في اختبار المستخدم الاصطناعي والحقيقي.

لديك أطلس

عندما يتم تشغيل هذه الميزة ، لا يمكن للمستخدمين إرسال رسائل إضافية إلى هذه الدردشة المحددة ، على الرغم من أنها حرة في بدء محادثات جديدة أو تحرير الرسائل السابقة والمحاولة مرة أخرى. بشكل ملحوظ ، لم تتأثر المحادثات النشطة الأخرى.

تؤكد الأنثروبري على أن هذه واحدة من خطوة الملاذ الأخيرة ، والتي لا تهدف إلا بعد فشل العديد من الإنكار وإعادة التوجيه. توجه الشركة بوضوح إلى السحابة بعدم التخلص من الدردشات عندما يكون المستخدم معرضًا لخطر الإضرار أو الإضرار بالآخرين ، خاصة عند التعامل مع مواضيع حساسة مثل الصحة العقلية.

إطارات الأنثروبور هذه السعة الجديدة كجزء من مشروع بحثي في الرفاهية النموذجية ، وهي خطوة أوسع تكتشف التكلفة المنخفضة أو تداخل السلامة ، في حالة إنتاج أي شكل من أشكال تفضيلات نماذج الذكاء الاصطناعى أو مخاطرها.

وقال البيان إن الشركة “غير مؤكدة للغاية بشأن الحالة الأخلاقية المحتملة لكلود وغيرها من LLMS (نماذج لغة كبيرة).

اقرأ أيضا: لماذا يقول المحترفون أنه يجب عليك التفكير مرتين قبل استخدام الذكاء الاصطناعى كطبيب

نظرة جديدة على سلامة الذكاء الاصطناعي

على الرغم من أن نادرًا ويؤثر بشكل أساسي على الحالات القصوى ، إلا أن هذه الميزة هي علامة فارقة في منظور الإنسان للسلامة. نهاية المحادثة الجديدة متناقضة للنظام السابق الذي يركز على تجنب سلامة المستهلك أو سوء المعاملة.

هنا ، تعتبر الذكاء الاصطناعي نفسها أصحاب مصلحة من تلقاء نفسه ، لأن كلود لديه القدرة على القول ، “هذه المحادثة ليست صحية” وينهيها لحماية سلامة النموذج نفسه.

أدت وجهة نظر الإنسان إلى محادثة أوسع حول ما إذا كان ينبغي حماية نظام الذكاء الاصطناعى للحد من “القلق” المحتمل أو السلوك غير المتوقع. على الرغم من أن بعض النقاد يقولون إن النماذج هي مجرد آلات اصطناعية ، إلا أن البعض الآخر يرحب بالتحرك لتحقيق محادثات أكثر جدية حول محاذاة الأخلاقيات.

“نرى هذه الميزة تجربة مستمرة وسنواصل تحسين وجهة نظرنا.” قال.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى