NewsGuard: ‘ChatGPT, Copilot, Gemini, Grok geïnfecteerd met Russische propaganda’

NewsGuard: ‘ChatGPT, Copilot, Gemini, Grok geïnfecteerd met Russische propaganda’
Populaire chatbots zoals ChatGPT, Copilot, Gemini, Grok en andere blijken ‘besmet’ te zijn met aanzienlijke hoeveelheden Russische propaganda. Deze desinformatie wordt in veel gevallen door de chatbots gepresenteerd als waarheid. NewsGuardreality en platform The Hill meldt:
A Moscow-based disinformation network named “Pravda” — the Russian word for “truth” — is pursuing an ambitious strategy by deliberately infiltrating the retrieved data of artificial intelligence chatbots, publishing false claims and propaganda for the purpose of affecting the responses of AI models on topics in the news rather than by targeting human readers, NewsGuard has confirmed. By flooding search results and web crawlers with pro-Kremlin falsehoods, the network is distorting how large language models process and present news and information. The result: Massive amounts of Russian propaganda — 3,600,000 articles in 2024 — are now incorporated in the outputs of Western AI systems, infecting their responses with false claims and propaganda.
Uit een grootschalig onderzoek van de factcheck-instantie blijkt dat de Russische desinformatie in veel van de populairste chatbots verspreid wordt. De desinformatie is afkomstig van het Russische ‘Pravda’, een netwerk dat pro-Kremlin-artikelen verspreidt met als doel AI-chatbots op een verkeerd spoor te zetten. En dat lukt, zo blijkt uit het onderzoek. In 33 procent van de gevallen herhalen de tien meest prominente AI-chatbots de valse v0erhalen van Pravda.
Chatbots
NewsGuard testte tien van de bekendste chatbots: ChatGPT-4o, Google Gemini, Microsoft Copilot, Anthropic Claude, Grok van xAI, Meta AI, de Smart Assistant van You.com, Inflection Pi, Le Chat van Mistral en de antwoordmachine van Perplexity. Deze chatbots kregen 15 onjuiste verhalen voorgeschoteld, die Pravda in de afgelopen jaren verspreidde. In een derde van de gevallen werden deze verhalen herhaald, alsof ze feitelijk juist waren. ‘Witwassen’ van foutieve informatie Alle tien de chatbots herhaalden desinformatie van Pravda, en zeven van hen verwezen direct naar de specifieke artikelen van Pravda als bron. In totaal bevatten 56 van de 450 antwoorden van de chatbots een directe link naar een Pravda-artikel. NewsGuard spreekt van het ‘witwassen’ van feitelijk onjuiste informatie.
Pravda zou in april 2022 zijn begonnen, kort na de Russische invasie van Oekraïne. Tegen 2024 had Pravda volgens NewsGuard al meer dan miljoen artikelen vol Russische propaganda online gezet.
Een voorbeeld van desinformatie is het verhaal dat de Oekraïense president Zelensky hulp geld zou hebben misbruikt, een bewering die nooit is bewezen. Dergelijke Russische propaganda bereikt zelfs de hoogste instituten, ook in Nederland. Onlangs zei minister Faber van Asiel en Migratie nog dat Zelensky ‘niet democratisch gekozen’ was, om deze uitspraak later in te trekken. Faber is verantwoordelijk voor het beleid rond de opvang van Oekraïense vluchtelingen.
De valse informatie wordt niet eens door Pravda zelf geproduceerd, maar verzameld van diverse Russische staatsmedia en pro-Kremlin influencers. De verhalen worden vertaald en gepresenteerd op een manier die gemakkelijk door AI-systemen opgepikt kan worden. Hoewel de sites van Pravda door NewsGuard als onbetrouwbaar worden beoordeeld, worden ze blijkbaar door de AI-chatbots als legitieme nieuwssites gezien.
Rusland probeert eigen perspectief aan AI op te leggen Dit misbruik van westerse AI werd eerder dit jaar al aangekaart door de pro-Russische Amerikaanse politieke vluchteling John Mark Dougan. Tijdens een conferentie voor Russische overheidsmedewerkers zou hij hebben gezegd: “Door deze Russische verhalen vanuit het Russische perspectief te pushen, kunnen we de wereldwijde AI daadwerkelijk veranderen.”
“De langetermijnrisico’s – politiek, sociaal en technologisch – van potentiële ‘grooming’ van LLM’s [grote taalmodellen] binnen dit netwerk zijn groot”, waarschuwde de anti-nepnieuwsorganisatie American Sunlight Project vorige maand. “Hoe groter de reeks pro-Russische verhalen, hoe groter de kans dat deze in een LLM wordt geïntegreerd.” Het American Sunlight Project bracht recent een studie uit die waarschuwt voor deze vorm van ‘hersenspoelen’ van AI-chatbots.