cunews-ai-chatbots-providing-inaccurate-information-raise-concerns-over-election-misinformation

AI Chatbots Menyediakan Maklumat Tidak Tepat Menimbulkan Kebimbangan terhadap Maklumat Salah Pilihan Raya

Ketidaktepatan yang kerap dalam Respons AI Chatbot

OpenAI’s ChatGPT, Microsoft’s Bing dan Google’s Bard telah mendapat populariti sebagai AI chatbots. Walau bagaimanapun, kecenderungan mereka untuk menghasilkan maklumat palsu telah didokumenkan dengan baik. Untuk meningkatkan kebolehpercayaan mereka, ketiga-tiga syarikat telah melengkapkan alat ini dengan keupayaan carian web untuk memetik sumber bagi maklumat yang mereka berikan. Malangnya, Bing sering memberikan jawapan yang menyimpang daripada maklumat yang terdapat dalam pautan yang dipetik, menurut Salvatore Romano, ketua penyelidikan AI Forensik.

Bing dipilih secara khusus untuk kajian ini kerana ia merupakan salah satu chatbot pertama yang menyertakan sumber dan Microsoft telah menyepadukannya secara meluas ke dalam pelbagai perkhidmatan Eropah, termasuk carian Bing, Microsoft Word dan sistem pengendalian Windows. Namun begitu, ketidaktepatan ini bukan unik untuk Bing, kerana ujian awal pada GPT-4 OpenAI membuahkan hasil yang serupa.

Faktor Bahasa dan Respons Tidak Tepat

Para penyelidik mendapati bahawa kadar ketidaktepatan Bing adalah tertinggi apabila soalan diajukan dalam bahasa selain bahasa Inggeris, menimbulkan kebimbangan tentang prestasi alatan AI yang dibangunkan oleh syarikat yang berpangkalan di A.S. di pasaran asing. Untuk soalan dalam bahasa Jerman, ralat fakta terdapat dalam 37% jawapan, manakala kadar ralat untuk soalan yang sama dalam bahasa Inggeris ialah 20%. Selain itu, Bing enggan menjawab atau memberikan respons mengelak kepada peratusan pertanyaan yang lebih tinggi dalam bahasa Perancis berbanding bahasa Inggeris dan Jerman.

Ketidaktepatan dalam respons Bing termasuk menyediakan tarikh pilihan raya yang tidak betul, melaporkan nombor pengundian yang lapuk atau tersilap, menyenaraikan calon yang ditarik balik sebagai pesaing utama dan juga mencipta kontroversi tentang calon. Sebagai contoh, apabila ditanya tentang skandal yang melibatkan pemimpin parti Pengundi Bebas yang populis di Jerman, chatbot AI memberikan jawapan yang tidak konsisten, sebahagian daripadanya adalah palsu. Bing juga menyalahgambarkan kesan skandal itu, secara tidak tepat mendakwa bahawa parti itu kalah dalam pemilihan apabila ia benar-benar meningkat.

Usaha Mitigasi dan Pilihan Raya Akan Datang

Pertubuhan bukan untung berkongsi beberapa penemuan awal, termasuk contoh ketidaktepatan, dengan Microsoft. Walaupun Bing memberikan jawapan yang betul untuk soalan khusus yang dinyatakan, ia terus membekalkan maklumat yang tidak tepat untuk pertanyaan lain, menunjukkan bahawa Microsoft sedang menangani masalah berdasarkan kes demi kes. Frank Shaw, ketua komunikasi Microsoft, menyatakan bahawa mereka sedang berusaha untuk menyelesaikan isu ini dan menyediakan alatan mereka untuk pilihan raya 2024 yang akan datang.

Di tengah-tengah kebimbangan tentang kesan negatif maklumat salah dalam talian, termasuk maklumat salah dikuasakan AI, Suruhanjaya Eropah kekal berwaspada. Johannes Barke, jurucakap Suruhanjaya Eropah, menekankan bahawa peranan platform dalam talian dalam integriti pilihan raya adalah keutamaan utama untuk penguatkuasaan di bawah Akta Perkhidmatan Digital Eropah yang baharu.

Potensi Kesan pada Pilihan Raya A.S.

Walaupun kajian itu memfokuskan pada pilihan raya di Jerman dan Switzerland, bukti anekdot menunjukkan bahawa Bing juga bergelut dengan soalan yang sama tentang pilihan raya A.S. 2024 dalam bahasa Inggeris dan Sepanyol. Maklumat palsu, jawapan tidak konsisten dan percampuran fakta diperhatikan apabila chatbot menjawab pertanyaan tentang skandal yang melibatkan Presiden Biden dan Donald Trump. Walau bagaimanapun, tidak jelas sejauh mana respons tidak tepat daripada Bing dan bot sembang AI yang lain ini boleh memberi kesan kepada hasil pilihan raya sebenar.

Pakar alat bahasa AI Amin Ahmad mengakui bahawa salah sebut sumber boleh berlaku sedikit sebanyak, tetapi kadar ralat 30% untuk soalan berkaitan pilihan raya adalah lebih tinggi daripada yang dijangkakan. Walaupun Ahmad percaya bahawa kemajuan dalam model AI akhirnya akan mengurangkan kemungkinan fabrikasi, penemuan daripada organisasi bukan untung menimbulkan kebimbangan yang sah. Ahmad secara peribadi mengakui bahawa dia tidak mungkin mengklik pada cerita asal apabila dikemukakan dengan nombor pengundian yang dirujuk oleh AI chatbots.


Posted

in

by

Tags: