خاضت AI chatbots غير دقيقة ومضللة عند تلخيص أخبار البحث. من بي بي سي وجدت الدراسة أن chatgpt من Openai و Google Gemini و Microsoft Copilot يمكن أن تُختتم بشكل صحيح ، حيث تم إنشاء أكثر من نصف النتائج من قبل AI.
كجزء من يذاكريسأل بي بي سي شاتغبت ، كوسيليوت ، الجوزاء والحيرة لتلخيص 100 أخبار بي بي سي. بالإضافة إلى البحث عن مشكلات مهمة في 51 في المائة من استجابة بي بي سي ، 19 في المائة من الإجابات المشار إليها إلى بي بي سي ، بما في ذلك الميزانية والتاريخ غير الصحيح. في الوقت نفسه ، فإن 13 في المائة من الكلمات من بي بي سي هي “تغيير من المصدر الأصلي أو لا في المقالة المشار إليها”.
تركز الدراسات على بعض الأمثلة ، بما في ذلك الجوزاء ، تشير بشكل غير صحيح إلى أن الخدمة الصحية الوطنية للمملكة المتحدة (NHS) تشير إلى أن الناس لا يبدأون في التدخين وينصحون بالمدخنين الذين يرغبون في التوقف عن استخدام أساليب أخرى. ” مزدحم حقا. التدخين للتوقف عن التدخين مثال آخر: في ديسمبر 2044 ، ادعى Chatgpt أن إسماعيل هانيه كان جزءًا من قادة حماس ، على الرغم من اغتياله في يوليو 2024.
بشكل عام ، وجدت الدراسة أن استجابة الجوزاء “تسبب القلق الأكبر” لأن 46 في المائة “تم تعيينهم على الحالة التي توجد بها مشاكل مهمة مع الدقة”. حافة الوصول إلى Openai و Google و Microsoft والحيرة مع الآراء. لكن لم يسمع على الفور
في الرد على التعليمالرئيس التنفيذي لشركة Deborah Turness لـ BBC News ودعوة الأعمال الحالية إلى شركة التكنولوجيا للتعامل مع المشكلة مع عدم الحاجة. تكتب Turness “نريد من شركات التكنولوجيا الأخرى أن تسمع مخاوفنا ، تمامًا كما تفعل Apple الوقت المناسب لنا للعمل معًا – صناعة أخبار الصناعة – وبالطبع تلعب الحكومة دورًا مهمًا في اللعب هنا.”