Hey chatbot, is this true? AI 'factchecks' sow misinformation
June 02, 2025
As misinformation exploded during India's four-day conflict with Pakistan, social media users turned to an AI chatbot for verification -- only to encounter more falsehoods, underscoring its unreliability as a fact-checking tool.
- Khi thông tin sai lệch bùng nổ trong cuộc xung đột kéo dài bốn ngày giữa Ấn Độ và Pakistan, người dùng mạng xã hội đã tìm đến chatbot AI để xác minh - chỉ để gặp phải thêm nhiều thông tin sai lệch, nhấn mạnh sự không đáng tin cậy của nó như một công cụ kiểm tra sự thật.
With tech platforms reducing human fact-checkers, users are increasingly relying on AI-powered chatbots -- including xAI's Grok, OpenAI's ChatGPT, and Google's Gemini -- in search of reliable information.
- Với việc các nền tảng công nghệ giảm bớt nhân viên kiểm tra sự thật, người dùng ngày càng dựa vào các chatbot AI - bao gồm Grok của xAI, ChatGPT của OpenAI và Gemini của Google - để tìm kiếm thông tin đáng tin cậy.
"Hey @Grok, is this true?" has become a common query on Elon Musk's platform X, where the AI assistant is built in, reflecting the growing trend of seeking instant debunks on social media.
- "Có đúng vậy không @Grok?" đã trở thành một câu hỏi phổ biến trên nền tảng X của Elon Musk, nơi trợ lý AI được tích hợp, phản ánh xu hướng ngày càng tăng của việc tìm kiếm sự bác bỏ ngay lập tức trên mạng xã hội.
But the responses are often themselves riddled with misinformation.
- Nhưng các câu trả lời thường bị lấp đầy bởi chính những thông tin sai lệch.
Grok -- now under renewed scrutiny for inserting "white genocide," a far-right conspiracy theory, into unrelated queries -- wrongly identified old video footage from Sudan's Khartoum airport as a missile strike on Pakistan's Nur Khan airbase during the country's recent conflict with India.
- Grok - hiện đang bị soi xét lại vì chèn thuyết âm mưu cực hữu "diệt chủng trắng" vào các câu hỏi không liên quan - đã xác định sai đoạn video cũ từ sân bay Khartoum của Sudan là một cuộc tấn công tên lửa vào căn cứ không quân Nur Khan của Pakistan trong cuộc xung đột gần đây với Ấn Độ.
Unrelated footage of a building on fire in Nepal was misidentified as "likely" showing Pakistan's military response to Indian strikes.
- Đoạn video không liên quan về một tòa nhà bị cháy ở Nepal bị nhận dạng sai là "có khả năng" cho thấy phản ứng quân sự của Pakistan đối với các cuộc tấn công của Ấn Độ.
"The growing reliance on Grok as a fact-checker comes as X and other major tech companies have scaled back investments in human fact-checkers," McKenzie Sadeghi, a researcher with the disinformation watchdog NewsGuard, told AFP.
- "Việc ngày càng dựa vào Grok như một công cụ kiểm tra sự thật diễn ra khi X và các công ty công nghệ lớn khác đã giảm bớt đầu tư vào nhân viên kiểm tra sự thật," McKenzie Sadeghi, một nhà nghiên cứu với tổ chức giám sát thông tin sai lệch NewsGuard, nói với AFP.
"Our research has repeatedly found that AI chatbots are not reliable sources for news and information, particularly when it comes to breaking news," she warned.
- "Nghiên cứu của chúng tôi liên tục tìm thấy rằng các chatbot AI không phải là nguồn tin đáng tin cậy cho tin tức và thông tin, đặc biệt khi nó liên quan đến tin tức nóng," cô cảnh báo.
The ChatGPT logo appears on the screen of a smartphone that rests on top of the laptop keyboard in Reno, United States, on Nov. 28, 2024. Photo by AFP
- Logo ChatGPT xuất hiện trên màn hình của một chiếc điện thoại thông minh đặt trên bàn phím máy tính xách tay ở Reno, Hoa Kỳ, vào ngày 28 tháng 11, 2024. Ảnh của AFP
'Fabricated'
- 'Bịa đặt'
NewsGuard's research found that 10 leading chatbots were prone to repeating falsehoods, including Russian disinformation narratives and false or misleading claims related to the recent Australian election.
- Nghiên cứu của NewsGuard đã tìm thấy rằng 10 chatbot hàng đầu có xu hướng lặp lại các thông tin sai lệch, bao gồm các câu chuyện sai lệch từ Nga và các tuyên bố sai hoặc gây hiểu nhầm liên quan đến cuộc bầu cử gần đây ở Úc.
In a recent study of eight AI search tools, the Tow Center for Digital Journalism at Columbia University found that chatbots were "generally bad at declining to answer questions they couldn't answer accurately, offering incorrect or speculative answers instead."
- Trong một nghiên cứu gần đây về tám công cụ tìm kiếm AI, Trung tâm Báo chí Kỹ thuật số Tow tại Đại học Columbia đã phát hiện rằng các chatbot "thường không từ chối trả lời những câu hỏi mà chúng không thể trả lời chính xác, thay vào đó đưa ra các câu trả lời sai hoặc dự đoán."
When AFP fact-checkers in Uruguay asked Gemini about an AI-generated image of a woman, it not only confirmed its authenticity but fabricated details about her identity and where the image was likely taken.
- Khi các nhân viên kiểm tra sự thật của AFP ở Uruguay hỏi Gemini về một hình ảnh được tạo ra bởi AI của một người phụ nữ, nó không chỉ xác nhận tính xác thực của hình ảnh mà còn bịa đặt chi tiết về danh tính của cô ấy và nơi hình ảnh có khả năng được chụp.
Grok recently labeled a purported video of a giant anaconda swimming in the Amazon River as "genuine," even citing credible-sounding scientific expeditions to support its false claim.
- Grok gần đây đã gắn nhãn một video được cho là về một con trăn khổng lồ bơi trong sông Amazon là "chính xác," thậm chí còn trích dẫn các cuộc thám hiểm khoa học nghe có vẻ đáng tin cậy để hỗ trợ tuyên bố sai của nó.
In reality, the video was AI-generated, AFP fact-checkers in Latin America reported, noting that many users cited Grok's assessment as evidence the clip was real.
- Trên thực tế, video này được tạo ra bởi AI, các nhân viên kiểm tra sự thật của AFP ở Latin America đã báo cáo, lưu ý rằng nhiều người dùng đã trích dẫn đánh giá của Grok như bằng chứng rằng đoạn video là thật.
Such findings have raised concerns as surveys show that online users are increasingly shifting from traditional search engines to AI chatbots for information gathering and verification.
- Những phát hiện này đã làm dấy lên lo ngại khi các khảo sát cho thấy người dùng mạng ngày càng chuyển từ các công cụ tìm kiếm truyền thống sang các chatbot AI để thu thập và xác minh thông tin.
The shift also comes as Meta announced earlier this year it was ending its third-party fact-checking program in the United States, turning over the task of debunking falsehoods to ordinary users under a model known as "Community Notes," popularized by X.
- Sự chuyển đổi này cũng diễn ra khi Meta thông báo vào đầu năm nay rằng họ sẽ kết thúc chương trình kiểm tra sự thật bởi bên thứ ba ở Hoa Kỳ, chuyển giao nhiệm vụ bác bỏ thông tin sai lệch cho người dùng thông thường theo mô hình được gọi là "Ghi chú Cộng đồng," phổ biến bởi X.
Researchers have repeatedly questioned the effectiveness of "Community Notes" in combating falsehoods.
- Các nhà nghiên cứu đã liên tục đặt câu hỏi về hiệu quả của "Ghi chú Cộng đồng" trong việc chống lại thông tin sai lệch.
'Biased answers'
- 'Câu trả lời thiên vị'
Human fact-checking has long been a flashpoint in a hyperpolarized political climate, particularly in the United States, where conservative advocates maintain it suppresses free speech and censors right-wing content -- something professional fact-checkers vehemently reject.
- Việc kiểm tra sự thật của con người từ lâu đã là một điểm nóng trong môi trường chính trị siêu phân cực, đặc biệt là ở Hoa Kỳ, nơi các nhà hoạt động bảo thủ cho rằng nó đàn áp tự do ngôn luận và kiểm duyệt nội dung cánh hữu - điều mà các nhân viên kiểm tra sự thật chuyên nghiệp kịch liệt bác bỏ.
AFP currently works in 26 languages with Facebook's fact-checking program, including in Asia, Latin America, and the European Union.
- AFP hiện đang làm việc bằng 26 ngôn ngữ với chương trình kiểm tra sự thật của Facebook, bao gồm ở châu Á, Latin America và Liên minh châu Âu.
The quality and accuracy of AI chatbots can vary, depending on how they are trained and programmed, prompting concerns that their output may be subject to political influence or control.
- Chất lượng và độ chính xác của các chatbot AI có thể thay đổi, tùy thuộc vào cách chúng được đào tạo và lập trình, dẫn đến lo ngại rằng kết quả của chúng có thể bị ảnh hưởng hoặc kiểm soát bởi chính trị.
Musk's xAI recently blamed an "unauthorized modification" for causing Grok to generate unsolicited posts referencing "white genocide" in South Africa.
- xAI của Musk gần đây đã đổ lỗi cho một "sửa đổi không được phép" vì đã khiến Grok tạo ra các bài đăng không mong muốn liên quan đến "diệt chủng trắng" ở Nam Phi.
When AI expert David Caswell asked Grok who might have modified its system prompt, the chatbot named Musk as the "most likely" culprit.
- Khi chuyên gia AI David Caswell hỏi Grok ai có thể đã sửa đổi lệnh hệ thống của nó, chatbot đã nêu tên Musk là "thủ phạm có khả năng nhất."
Musk, the South African-born billionaire backer of President Donald Trump, has previously peddled the unfounded claim that South Africa's leaders were "openly pushing for genocide" of white people.
- Musk, tỷ phú người Nam Phi ủng hộ Tổng thống Donald Trump, trước đây đã lan truyền tuyên bố vô căn cứ rằng các nhà lãnh đạo Nam Phi đang "công khai thúc đẩy diệt chủng" người da trắng.
"We have seen the way AI assistants can either fabricate results or give biased answers after human coders specifically change their instructions," Angie Holan, director of the International Fact-Checking Network, told AFP.
- "Chúng tôi đã thấy cách các trợ lý AI có thể hoặc bịa đặt kết quả hoặc đưa ra các câu trả lời thiên vị sau khi các lập trình viên con người cụ thể thay đổi hướng dẫn của họ," Angie Holan, giám đốc của Mạng lưới Kiểm tra Sự thật Quốc tế, nói với AFP.
"I am especially concerned about the way Grok has mishandled requests concerning very sensitive matters after receiving instructions to provide pre-authorized answers."
- "Tôi đặc biệt lo ngại về cách Grok đã xử lý các yêu cầu liên quan đến các vấn đề rất nhạy cảm sau khi nhận được chỉ dẫn để cung cấp các câu trả lời được ủy quyền trước."