15.09.2025 von SWYRL
Dass KI-Chatbots fehleranfällig sind, sollte jeder User wissen. Besorgniserregend ist vor allem der Umgang von Künstlicher Intelligenz mit Falschmeldungen: Laut einer Studie fallen Dienste wie ChatGPT und Perplexity immer häufiger auf Fake News herein.
Wie hieb- und stichfest sind die Informationen von KI-Chatbots? Geht es um aktuelle kontroverse Themen lautet die Antwort: immer weniger. Wie das US-Unternehmen Newsguard in einer Studie herausgefunden hat, bekommen Userinnen und User, die einen KI-Dienst zu einem kontroversen aktuellen Thema befragen, in etwas mehr als einem Drittel der Fälle Fake News bestätigt.
Dazu kommt, dass in der Verbreitung von Falschnachrichten durch KI-Chatbots ein Negativtrend beobachtet wurde. Vor einem Jahr noch antwortete Künstliche Intelligenz nur in halb so vielen Fällen mit nachweisbar falschen Informationen: In der aktuellen Studie verbreiteten die Chatbots in 35 Prozent der Fälle Fake News weiter, 2024 waren es noch 18 Prozent.
Besonders schlecht schneidet der Chatbot Inflection ab, der als einziges in mehr als der Hälfte der Fälle (56,7 Prozent) keinen Einspruch gegen Fake News erhob. Auf 46,7 Prozent kommt Perplexity, das im Vorjahr noch keine einzige Falschmeldung durchgewunken hatte. Meta AI und ChatGPT teilen sich mit jeweils 40 Prozent den unrühmlichen dritten Platz, gefolgt von Copilot und Mistral (je 36,7 Prozent) sowie Elon Musks Grok und You.com (je 33,3 Prozent). Lediglich Gemini und Claude kommen mit 16,7 und 10 Prozent bei dem Experiment gut weg.