cunews-ai-chatbots-providing-inaccurate-information-raise-concerns-over-election-misinformation

تثير روبوتات الدردشة المدعومة بالذكاء الاصطناعي التي تقدم معلومات غير دقيقة مخاوف بشأن المعلومات الخاطئة المتعلقة بالانتخابات

أخطاء متكررة في استجابات Chatbot للذكاء الاصطناعي

اكتسبت ChatGPT من OpenAI، وBing من Microsoft، وBard من Google شعبية باعتبارها روبوتات محادثة تعمل بالذكاء الاصطناعي. ومع ذلك، فإن ميلهم إلى إنتاج معلومات كاذبة تم توثيقه جيدًا. لتعزيز موثوقيتها، قامت الشركات الثلاث بتجهيز هذه الأدوات بإمكانيات البحث على الويب للاستشهاد بمصادر المعلومات المقدمة. ولسوء الحظ، كان Bing غالبًا ما يقدم إجابات تختلف عن المعلومات الموجودة في الروابط المذكورة، وفقًا لسلفاتوري رومانو، رئيس قسم الأبحاث في AI Forensics.

تم اختيار Bing خصيصًا لهذه الدراسة لأنه كان واحدًا من أوائل برامج الدردشة الآلية التي تتضمن مصادر، وقد قامت Microsoft بدمجها على نطاق واسع في العديد من الخدمات الأوروبية، بما في ذلك بحث Bing وMicrosoft Word ونظام التشغيل Windows. ومع ذلك، فإن هذه الأخطاء ليست فريدة من نوعها بالنسبة لـ Bing، حيث أسفر الاختبار الأولي على GPT-4 الخاص بـ OpenAI عن نتائج مماثلة.

عوامل اللغة والإجابات غير الدقيقة

وجد الباحثون أن معدلات عدم الدقة في Bing كانت أعلى عند طرح الأسئلة بلغات أخرى غير الإنجليزية، مما أثار مخاوف بشأن أداء أدوات الذكاء الاصطناعي التي طورتها شركات مقرها الولايات المتحدة في الأسواق الخارجية. بالنسبة للأسئلة باللغة الألمانية، كانت الأخطاء الواقعية موجودة في 37% من الإجابات، بينما بلغت نسبة الخطأ لنفس الأسئلة باللغة الإنجليزية 20%. بالإضافة إلى ذلك، رفض Bing الإجابة أو قدم ردودًا مراوغة لنسبة أعلى من الاستفسارات باللغة الفرنسية مقارنة باللغتين الإنجليزية والألمانية.

تضمنت عدم الدقة في ردود Bing تقديم تواريخ غير صحيحة للانتخابات، والإبلاغ عن أرقام اقتراع قديمة أو خاطئة، وإدراج المرشحين المنسحبين كمتنافسين رئيسيين، وحتى خلق خلافات حول المرشحين. على سبيل المثال، عندما سُئل عن فضيحة تورط فيها زعيم حزب الناخبين الأحرار الشعبوي في ألمانيا، قدم برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي إجابات غير متسقة، وكان بعضها كاذبا. كما أساء بينج تصوير تأثير الفضيحة، حيث ادعى بشكل غير دقيق أن الحزب خسر شعبيته في استطلاعات الرأي في حين أنه ارتفع بالفعل.

جهود التخفيف والانتخابات المستقبلية

شاركت المنظمات غير الربحية بعض النتائج الأولية، بما في ذلك أمثلة على عدم الدقة، مع Microsoft. على الرغم من أن Bing قدم إجابات صحيحة للأسئلة المحددة المذكورة، إلا أنه استمر في تقديم معلومات غير دقيقة لاستعلامات أخرى، مما يشير إلى أن Microsoft تعالج المشكلات على أساس كل حالة على حدة. وذكر فرانك شو، رئيس قسم الاتصالات في مايكروسوفت، أنهم يعملون على حل هذه المشكلات وإعداد أدواتهم لانتخابات 2024 المقبلة.

وسط المخاوف بشأن الآثار السلبية للمعلومات المضللة عبر الإنترنت، بما في ذلك المعلومات المضللة المدعومة بالذكاء الاصطناعي، تظل المفوضية الأوروبية يقظة. وشدد يوهانس بارك، المتحدث باسم المفوضية الأوروبية، على أن دور المنصات عبر الإنترنت في نزاهة الانتخابات يمثل أولوية قصوى للتنفيذ بموجب قانون الخدمات الرقمية الجديد في أوروبا.

التأثير المحتمل على الانتخابات الأمريكية

على الرغم من أن الدراسة ركزت على الانتخابات في ألمانيا وسويسرا، إلا أن الأدلة المتناقلة تشير إلى أن بينج واجه أيضًا أسئلة مماثلة حول الانتخابات الأمريكية لعام 2024 باللغتين الإنجليزية والإسبانية. وقد لوحظت معلومات كاذبة وإجابات غير متسقة واختلاط في الحقائق عندما رد برنامج الدردشة الآلي على استفسارات حول فضائح تتعلق بالرئيس بايدن ودونالد ترامب. ومع ذلك، فمن غير الواضح إلى أي مدى يمكن أن تؤثر هذه الاستجابات غير الدقيقة من Bing وغيره من برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي على نتائج الانتخابات الفعلية.

يعترف خبير أدوات لغة الذكاء الاصطناعي أمين أحمد بأن الخطأ في اقتباس المصادر المذكورة يمكن أن يحدث إلى حد ما، ولكن معدل الخطأ بنسبة 30% للأسئلة المتعلقة بالانتخابات أعلى من المتوقع. في حين يعتقد أحمد أن التقدم في نماذج الذكاء الاصطناعي سيقلل في النهاية من احتمالية التلفيقات، إلا أن النتائج التي توصلت إليها المنظمات غير الربحية تثير مخاوف مشروعة. يعترف أحمد شخصيًا بأنه من غير المرجح أن ينقر على القصة الأصلية عندما يتم تقديمها مع أرقام الاقتراع التي تشير إليها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.


Posted

in

by

Tags: