الأنثروبولوجيا لديها قواعد جديدة لمناظر الذكاء الاصطناعي أكثر خطورة.

لقد حسنت الأنثروبولوجيا من استخدام كلود AI chatbot للرد على المخاوف المتزايدة بشأن السلامة. بصرف النظر عن إدخال قواعد الأمن السيبراني الصارم في هذا الوقت ، حددت الأنثروبولوجيا بعض من أخطر الأسلحة التي يجب ألا يتطورها الناس باستخدام كلود.
الأنثروبولوجيا لا تركز على تخصيص سياسة الأسلحة. في تغيير في التغييرولكن هي مقارنة بين الملفات سياسة تشغيل الشركة ويكشف فيلمه الجديد عن اختلاف مميز على الرغم من أن الأنثروبولوجيا سيحظر استخدام كلود “لإنتاج أو تعديل أو تصميم أو سوق أو توزيع الأسلحة أو المتفجرات أو المواد الخطرة أو غيرها من الأنظمة المصممة للتسبب في خطر أو فقدان الحياة البشرية”.
في مايو ، الأنثروبولوجيا منع “AI Safety Level 3” بالإضافة إلى إطلاق نموذج Clude Opus 4 الجديد ، تم تصميم الوقاية لجعل النموذج أكثر صعوبة في انهيار السجن ، بالإضافة إلى المساعدة في تطوير أسلحة CBRN.
في مشاركاتها ، تدرك الأنثروبولوجيا أيضًا خطر أدوات AIC AIC ، بما في ذلك استخدام أجهزة الكمبيوتر ، والتي تسبب كلود للتحكم في كمبيوتر المستخدم ، بما في ذلك رمز CLADE ، وهو أدوات مضمنة مباشرة في محطة هؤلاء المطورين.
تستجيب بداية الذكاء الاصطناعي لهذه المخاطر عن طريق الطي. “لا تقم بالتنازل عن الكمبيوتر أو الشبكة” في سياسة التشغيل. يتضمن ذلك قواعد استخدام Claude للعثور على أو استخدام الثغرات لإنشاء أو توزيع أدوات البرامج الضارة للهجوم والرفض والخدمة وغيرها.
بالإضافة إلى ذلك ، تعمل الأنثروبولوجيا حاليًا على السياسات السياسية. بدلاً من إنشاء جميع أنواع المحتوى المتعلقة بالحملات السياسية والضغط. في هذا الوقت ، ستحظر الأنثروبولوجيا مستخدمي كلود على “حالة من عمليات المخدعات أو المضايقة على العمليات الديمقراطية أو ذات الصلة بالناخبين وهدف الشركة أيضًا توضح أن متطلبات استخدام المخاطر العالية” ، وكلها تأتي إلى دور عندما يستخدم الناس كلود. من أجل تقديم المشورة للأشخاص أو العملاء فقط ، تقدم بتقدم إلى المواقف التي تواجه المستهلكين فقط ، وليس للاستخدام التجاري