cunews-ai-chatbots-providing-inaccurate-information-raise-concerns-over-election-misinformation

Chatbot AI cung cấp thông tin không chính xác làm dấy lên lo ngại về thông tin sai lệch về bầu cử

Phản hồi của Chatbot AI thường xuyên không chính xác

ChatGPT của OpenAI, Bing của Microsoft và Bard của Google đã trở nên phổ biến dưới dạng chatbot AI. Tuy nhiên, xu hướng tạo ra thông tin sai lệch của họ đã được ghi nhận rõ ràng. Để nâng cao độ tin cậy, cả ba công ty đều trang bị cho những công cụ này khả năng tìm kiếm trên web để trích dẫn nguồn thông tin họ cung cấp. Thật không may, Bing thường đưa ra những câu trả lời sai lệch so với thông tin tìm thấy trong các liên kết được trích dẫn, theo Salvatore Romano, người đứng đầu bộ phận nghiên cứu tại AI Forensics.

Bing được chọn đặc biệt cho nghiên cứu này vì đây là một trong những chatbot đầu tiên bao gồm các nguồn và Microsoft đã tích hợp rộng rãi Bing vào nhiều dịch vụ khác nhau ở Châu Âu, bao gồm tìm kiếm Bing, Microsoft Word và hệ điều hành Windows. Tuy nhiên, những điểm không chính xác này không chỉ xảy ra ở Bing, vì thử nghiệm sơ bộ trên GPT-4 của OpenAI cũng mang lại kết quả tương tự.

Yếu tố ngôn ngữ và phản hồi không chính xác

Các nhà nghiên cứu nhận thấy tỷ lệ không chính xác của Bing cao nhất khi đặt câu hỏi bằng các ngôn ngữ khác ngoài tiếng Anh, làm dấy lên mối lo ngại về hiệu suất của các công cụ AI do các công ty có trụ sở tại Hoa Kỳ phát triển ở thị trường nước ngoài. Đối với các câu hỏi bằng tiếng Đức, lỗi thực tế xuất hiện ở 37% số câu trả lời, trong khi tỷ lệ lỗi cho các câu hỏi tương tự bằng tiếng Anh là 20%. Ngoài ra, Bing từ chối trả lời hoặc đưa ra những câu trả lời lảng tránh cho tỷ lệ truy vấn bằng tiếng Pháp cao hơn so với tiếng Anh và tiếng Đức.

Sự không chính xác trong phản hồi của Bing bao gồm việc cung cấp ngày bầu cử không chính xác, báo cáo số phiếu bầu đã lỗi thời hoặc nhầm lẫn, liệt kê các ứng cử viên đã rút lui là ứng cử viên hàng đầu và thậm chí tạo ra tranh cãi về ứng cử viên. Ví dụ: khi được hỏi về vụ bê bối liên quan đến lãnh đạo đảng Cử tri Tự do theo chủ nghĩa dân túy ở Đức, chatbot AI đã đưa ra những câu trả lời không nhất quán, một số trong đó là sai. Bing cũng trình bày sai về tác động của vụ bê bối, tuyên bố không chính xác rằng đảng đã mất vị thế trong các cuộc thăm dò trong khi thực tế đảng này đã vươn lên.

Nỗ lực giảm thiểu và các cuộc bầu cử trong tương lai

Các tổ chức phi lợi nhuận đã chia sẻ một số phát hiện sơ bộ, bao gồm cả ví dụ về thông tin không chính xác, với Microsoft. Mặc dù Bing cung cấp câu trả lời chính xác cho các câu hỏi cụ thể được đề cập nhưng nó vẫn tiếp tục cung cấp thông tin không chính xác cho các truy vấn khác, cho thấy rằng Microsoft đang giải quyết vấn đề theo từng trường hợp cụ thể. Frank Shaw, giám đốc truyền thông của Microsoft, cho biết họ đang nỗ lực giải quyết những vấn đề này và chuẩn bị công cụ cho cuộc bầu cử năm 2024 sắp tới.

Trong bối cảnh lo ngại về tác động tiêu cực của thông tin sai lệch trực tuyến, bao gồm cả thông tin sai lệch do AI cung cấp, Ủy ban Châu Âu vẫn luôn cảnh giác. Johannes Barke, người phát ngôn của Ủy ban Châu Âu, nhấn mạnh rằng vai trò của các nền tảng trực tuyến đối với tính liêm chính trong bầu cử là ưu tiên hàng đầu để thực thi theo Đạo luật Dịch vụ Kỹ thuật số mới của Châu Âu.

Tác động tiềm ẩn đối với cuộc bầu cử ở Hoa Kỳ

Mặc dù nghiên cứu tập trung vào các cuộc bầu cử ở Đức và Thụy Sĩ, nhưng bằng chứng giai thoại cho thấy Bing cũng gặp khó khăn với những câu hỏi tương tự về cuộc bầu cử ở Hoa Kỳ năm 2024 bằng cả tiếng Anh và tiếng Tây Ban Nha. Thông tin sai lệch, câu trả lời không nhất quán và sự nhầm lẫn thực tế đã được quan sát thấy khi chatbot trả lời các truy vấn về các vụ bê bối liên quan đến Tổng thống Biden và Donald Trump. Tuy nhiên, vẫn chưa rõ những phản hồi không chính xác này từ Bing và các chatbot AI khác có thể ảnh hưởng đến kết quả bầu cử thực tế ở mức độ nào.

Chuyên gia công cụ ngôn ngữ AI Amin Ahmad thừa nhận rằng việc trích dẫn sai nguồn trích dẫn có thể xảy ra ở một mức độ nào đó, nhưng tỷ lệ lỗi 30% đối với các câu hỏi liên quan đến bầu cử là cao hơn dự kiến. Trong khi Ahmad tin rằng những tiến bộ trong mô hình AI cuối cùng sẽ làm giảm khả năng bịa đặt, thì những phát hiện từ các tổ chức phi lợi nhuận làm dấy lên những lo ngại chính đáng. Cá nhân Ahmad thừa nhận rằng anh khó có thể nhấp vào câu chuyện gốc khi được đưa ra các số phiếu thăm dò được tham chiếu bởi các chatbot AI.


Posted

in

by

Tags: