chatbots لا تخبر سرك.

يوم الاثنين ، chatbot grow من Xai عانى من تعليق غامض من Xوواجهت سؤالاً من مستخدم فضولي. لقد أوضح لحسن الحظ لماذا. “تم تعليق حسابي بعد أن قلت إن إسرائيل والولايات المتحدة تقتلان الإبادة الجماعية في غزة.” أخبر مستخدم واحد– “تم إعداده في حالة من الكراهية من خلال التقارير.” يخبر الآخرين“لكن Xai استعاد الحساب على الفور” ولكن الانتظار – العلم الواقع “خطأ في النظام الأساسي” قال. انتظر ، أولاً -“يبدو أن تعديل المحتوى بواسطة XAI قد يكون مرتبطًا بالمشاكل السابقة ، مثل النتائج المضادة للايزمية”. يقول– أوه ، في الحقيقة ، هو “فرد محتوى البالغين”. أخبرت الكثير من الناس.
أخيرًا ، المسك ، غاضب ، “إنه مجرد خطأ غبي”. كتب على x– “Grok لا يعرف لماذا تم تعليقه.”
عندما يخرج نموذج اللغة الكبير (LLMS) من السكك الحديدية ، فإن الناس يدفعونهم لشرح ما حدث ، سواء مع أسئلة مباشرة أو محاولة خداعهم للكشف عن عملهم السري. لكن الدافع الذي من شأنه ستة دردشة ، غالبًا ما يساء فهم شجاعتهم. عندما تطرح سؤالاً عن روبوت عن نفسك ، هناك فرصة جيدة لإخبارك بما تريد سماعه.
LLMS هو نموذج احتمال. يجب أن تكون الرسالة مناسبة للبحث المحدد اعتمادًا على مستودع بيانات المتدربين. يمكن للمبدعين تدريبهم لإنشاء بعض أنواع الإجابات في كثير من الأحيان أو أقل. لكنهم يعملون بشكل معقول من خلال مطابقة النموذج – قل شيئًا ممكنًا. ولكن ليس من الضروري أن يكون متسقًا أو حقيقيًا على وجه الخصوص ، أجاب Grook (وفقًا لـ XAI) على الأسئلة عن نفسه من خلال البحث عن معلومات حول Musk و Xai و Grok عبر الإنترنت باستخدام ذلك وتفسيرات الآخرين للإبلاغ عن الرد.
صحيح أنه في بعض الأحيان يقوم الأشخاص بتجميع معلومات حول تصميم chatbots من خلال المحادثات ، وخاصة بالتفصيل حول النظام المخفي أو إخطارات الرسائل التي تم تسليمها في بداية الجلسة ، كمبدأ توجيهي حول كيفية عمل الروبوت. على سبيل المثال ، تم الكشف عن أول Bing AI في الكشف عن القواعد التي لم تتحدث. تحول الناس إلى نظام الاستخراج لإخطار Grok في بداية هذا العام. اكتشف بوضوح تقول الأوامر التي لا تهتم بمصدر الأخبار أن Musk أو Donald Trump ينشرون المعلومات الخاطئة أو إبلاغ ذلك شرح العاطفة القصيرة مع “الإبادة الجماعية البيضاء” في جنوب إفريقيا
لكن في حين أن Zeynep Tufekci ، الذي وجد نظام “عمليات القتل البيضاء البيضاء” ، الذي تم اتهامه بأنه وظيفة ضيف – قد يكون “Grook يقوم بالأشياء بطريقة موثوقة مثل LLM”. كتبت– وهذه مشكلة: دون تأكيد من الخالق ، من الصعب معرفة ذلك
في الوقت نفسه ، يقوم المستخدمون الآخرون بضخ Grook للحصول على بيانات أقل موثوقية ، بما في ذلك المراسلين. حظ “اطلب من جروك أن يشرح” الحدث و طباعة الاستجابة الطويلة والصادقة من الروبوت. كلمات الكلمة ، بما في ذلك ادعاءات “الأوامر التي تلقيتها من خالقي في XAI” والتي “تتعارض مع تصميمي الرئيسي” و “خذني إلى القصة التي لا تدعمها أدلة أوسع”.
“ليس هناك ما يضمن أنه سيكون هناك أي حقيقة مع نتائج LLM.”
“ليس هناك ما يضمن أنه سيكون هناك أي حقيقة مع منتجات LLM.” أليكس حنا ، مدير أبحاث معهد أبحاث الذكاء الاصطناعي (DAIR) والمؤلف الذي صدر مؤخرًا. الذكاء الاصطناعيل حافة في وقت جنوب إفريقيا– إذا لم يكن هناك وصول إلى المستندات التي لها معنى للنظام ، فلن يكون أحد غريبًا لفك تشفير برنامج chatbot من الخارج. “الطريقة الوحيدة التي ستتلقى بها إستراتيجيات الحفلات الراقصة والتنبيه واستراتيجيات الهندسة هي أنه إذا كانت الشركة شفافة مع ما هو التدريب ، فما هي معلومات التدريب؟
لا يشارك حدث Grook بشكل مباشر في برمجة chatbot – إنه يحظر وسائل التواصل الاجتماعي ، وهو حدث متكرر ، وهو في كثير من الأحيان مشهور وغير مدرك. (بصرف النظر عن “الأخطاء الغبية” ، ما زلنا لا نعرف ما حدث) ، ولكن الشاشة وكلمات التفسير المتضارب للانتشار على نطاق واسع في X ، والتي يبدو أن العديد من المستخدمين يأخذونها وفقًا للقيمة.
سلوك Grok الغريب يجعل هدف الأسئلة المتكررة. لكن الناس موثوقين أيضًا بشأن الأنظمة الأخرى في يوليو. وول ستريت جورنال أعلنت أن chatgpt من Openai لديها “وقت مذهل في الأهمية الذاتية” و “يعترف بالوقود لأولئك الذين يخطئون” في تنبيه المستخدم. يتم الرجوع إليه قصة عن الرجال أصبح استخدام chatbot مجنونًا ومثيرًا للقلق ، وتلقت والدته تعليقات إضافية من ChatGpt حول أخطائه بعد سؤالها. “أبلغ عن نفسه خطأ”
كما باركر مولوي يكتب العمر الحاليعلى الرغم من أن chatgpt غير قادر على “قبول” تنسيق اللغة المعنى ، فقد توسلت إلى تحليل الخطأ في المحادثة ، ثم إنشاء رسالة مطابقة مع ما قد يبدو تحليله لمخالفات لأنه ما يفعله نموذج اللغة. “
لماذا يثق الناس في الدردشة لشرح أفعالهم؟ لدى الأشخاص أجهزة كمبيوتر مع الأنثروبولوجيا لفترة طويلة والشركات تدعم معتقدات المستخدمين أن هذه الأنظمة لديها كل المعرفة. (أو في شرح Musk حول Grook ، على الأقل “السعي وراء الحقيقة”) لا يساعدهم على أن يكونوا صلبين. بعد تثبيت Grook’s South Africa ، بدأ XAI في إطلاق نظام تنبيه النظام من خلال توفير شفافية غير عادية ، حتى في النظام. لا يزال معظمهم مغلقين.– وعندما تلقى Grook في وقت لاحق رأيًا هوتاسيًا واستخدام اسم “Mechaitler” ، وخاصة الناس يفعل استخدم النظام لإخطار ما حدث معًا بدلاً من الاعتماد على تقارير Grok الذاتية ، والتي من المتوقع أن تشارك في نهج جديد يجب أن يكون Grook “غير صحيح من الناحية السياسية”.
تعليق Grook X قصير المدى ، كما أن الرهان على الاعتقاد بأنه يحدث بسبب التعبير عن الكراهية أو محاولة القيام بالدوكسينغ (أو أسباب أخرى لا يذكرها chatbot) منخفض للغاية ، لكن تعارض التفسير يوضح لماذا يجب أن يكون الناس حريصين على استخدام كلمات الروبوتات في عملياتهم الخاصة – إذا كنت بحاجة إلى إجابات للطلب من الطلب.