كشف بحث جديد أجراه اتحاد الإذاعات الأوروبية وهيئة الإذاعة البريطانية (BBC) أن تطبيقات الذكاء الاصطناعي مثل ChatGPT وCopilot وGemini وPerplexity تحرف محتوى الأخبار في نحو نصف ردودها تقريباً.
وشمل البحث أكثر من 3000 إجابة من هذه التطبيقات بـ 14 لغة مختلفة، لتقييم دقتها ومصادرها وقدرتها على التمييز بين الرأي والحقيقة.
أخطاء متكررة في الدقة والمصادر
أظهر التقرير أن 45% من الردود احتوت على خطأ كبير واحد على الأقل، و81% منها تضمنت نوعاً من المشكلات.
كما أن ثلث الإجابات احتوت على أخطاء جسيمة في المصادر، مثل الإسناد المفقود أو المضلل، وسُجلت أعلى نسبة أخطاء لدى Gemini بنسبة 72%، مقارنة بأقل من 25% في التطبيقات الأخرى.
أمثلة على الأخطاء
من بين الأخطاء التي رصدتها الدراسة:
- ذكر Gemini معلومات غير صحيحة عن قانون السجائر الإلكترونية.
- أشار ChatGPT إلى أن البابا فرنسيس ما زال حياً بعد وفاته بعدة أشهر.
قلق حول الثقة والمساءلة
حذر اتحاد الإذاعات الأوروبية من أن الاعتماد المتزايد على مساعدي الذكاء الاصطناعي بدلاً من محركات البحث التقليدية قد يؤدي إلى تآكل ثقة الجمهور في الأخبار.
وقال جان فيليب دي تيندر، مدير الإعلام في الاتحاد:
“عندما لا يعرف الناس ما الذي يثقون به، ينتهي بهم الأمر إلى عدم الثقة في أي شيء، مما يهدد المشاركة الديمقراطية.”
توصيات التقرير
دعا التقرير شركات الذكاء الاصطناعي إلى تحسين دقة ردودها وتحمل المسؤولية عن المعلومات التي تقدمها، خاصة مع تزايد اعتماد الشباب عليها — إذ يستخدمها نحو 15% من من هم دون 25 عاماً كمصدر للأخبار.

c
LEAVE A COMMENT