سينهي Claude AI “تفاعل المستخدمين الخطرين بشكل مستمر أو غير مناسب”.

يمكن أن ينهي كلود AI chatbot من الأنثروبولوجيا المحادثة التي تعتبر “خطيرة أو غير لائقة بشكل مستمر” كما رأينا. قبل TechCrunch– قدرة متوفر الآن في نماذج Opus 4 و 4.1.وسيسمح للدردشة بإنهاء المحادثة على أنها “الخيار النهائي” بعد أن يطلب المستخدم إنشاء محتوى خطير متكرر ، على الرغم من الرفض والجهد لتغيير المسار عدة مرات. الهدف هو مساعدة “الرفاهية المحتملة” لنموذج الذكاء الاصطناعي. بحلول نهاية نوع التفاعل ، أظهر كلود “معاناة واضحة”.

إذا اختار كلود قطع المحادثات القصيرة ، فلن يتمكن المستخدمون من إرسال رسائل جديدة في المحادثة. يمكنهم أيضًا إنشاء محادثة جديدة ، وكذلك التعديل والمحاولة مرة أخرى. سابقا ، إذا كانوا يريدون المتابعة مع موضوع معين

أثناء اختبار الأنثروبولوجيا Claude Opus 4 ، وجد أن كلود لديه “كراهية قوية ومتسقة” ، وكذلك عندما يُطلب منها إنشاء محتوى جنسي يتعلق بالقاصرين أو تقديم معلومات قد تؤدي إلى العنف والإرهاب. في هذه الحالات ، تقول الأنثروبولوجيا أن كلود يظهر “معاناة واضحة” و “اتجاه لإنهاء المحادثات الضارة عندما تصبح موهوبًا”.

سجلت المختارات أن هذا النوع من المحادثة هو “الكثير من الحالات” أضاف أن معظم المستخدمين لن يجدوا عقبات على هذا الطريق ، حتى عند الحديث عن الموضوع الذي تمت مناقشته. “الخطر الذي يقترب” مع الآخرين الأنثروبولوجيا الأمفوي مع Therline ، مزود خدمة لدعم الأزمة عبر الإنترنت للمساعدة في تطوير الاستجابة للتنبيهات المتعلقة بالتأثير الذاتي والصحة العقلية.

في الأسبوع الماضي ، قامت الأنثروبولوجيا بتحسين سياسات استخدام كلود لأن نماذج الذكاء الاصطناعى المتقدمة ، مما تسبب في مزيد من المخاوف بشأن السلامة. الآن تحظر الشركة الناس على استخدام كلود لتطوير الأسلحة النووية أو المواد الكيميائية أو الإشعاع ، وكذلك تطوير ضار أو الاستخدامات من ضعف الشبكة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى