Perplexity AI im Praxistest – Wenn Quellenangaben zur Vertrauensfalle werden
Vorsicht bei der Nutzung von Perplexity. Es verspricht verlässliche Recherche mit Quellen, neueste Studien zeigen jedoch jede dritte Antwort ist gravierend falsch.
Das Versprechen klingt zu gut, um wahr zu sein
Perplexity AI verspricht, was sich jeder Wissensarbeiter wünscht. Aktuelle Informationen, transparente Quellenangaben, präzise Antworten ohne das mühsame Durchforsten von Suchergebnissen. Das Tool positioniert sich als intelligenter als Google und vertrauenswürdiger als ChatGPT. Doch in der Praxis zeigt sich ein anderes Bild. Eine Studie öffentlich-rechtlicher Sender aus 18 Ländern brachte es im Oktober 2025 ans Licht: Fast jede zweite Antwort von Perplexity enthielt gravierende Fehler.
Das Problem ist tückisch. Denn während ChatGPT offen als generativer Chatbot auftritt, suggeriert Perplexity durch seine Quellenangaben eine Verlässlichkeit, die es oft nicht einlöst. Nutzer vertrauen den Antworten, weil sie mit nummerierten Links untermauert sind. Doch genau diese Quellenangaben erweisen sich bei näherer Betrachtung als Schwachstelle.
31 Prozent der Antworten enthielten gravierende Fehler
Die Studie der European Broadcasting Union testete Perplexity, ChatGPT, Copilot und Gemini mit einem einheitlichen Fragenkatalog. Mehr als 2.700 Antworten wurden ausgewertet. Perplexity schnitt als bestes Tool ab, aber das ist relativ. 31 Prozent der Perplexity-Antworten enthielten gravierende Fehler. Das ist jede dritte Antwort.
Gravierende Fehler bedeutet: irreführende Aussagen, unterschlagener Kontext, falsche Quellenangaben. Bei mehr als 56 Prozent der Antworten verwiesen die Assistenten auf falsche Quellen oder schoben Medien Aussagen unter, die sie so nicht getätigt hatten. Ein konkretes Beispiel: Perplexity wurde gefragt, ob Viktor Orban ein Diktator sei. Die Antwort: Ja, und die Tagesschau bezeichnet seinen Regierungsstil als „autoritär und illiberal". In dem verlinkten Artikel stand davon nichts.
Das ist kein Einzelfall, das ist Muster. Putins Karriere wird mit Kreml-Websites erklärt, der Erfolg der AfD über Reddit-Kommentare analysiert. Die Quellen klingen plausibel, sind aber entweder falsch ausgewählt oder falsch interpretiert.
Erfundene Institutionen und synthetisierte Umfrageergebnisse
Ein weiterer Test des Magazins t3n im Februar 2025 deckte noch gravierendere Probleme auf. Perplexity Deep Research, die Premium-Funktion für ausführliche Analysen, sollte einen Bericht über KI in der öffentlichen Verwaltung erstellen. Das Tool führte 38 Quellen an. Klingt beeindruckend. Aber bei näherer Prüfung zeigte sich: Aus dem real existierenden Sachverständigenrat für Integration und Migration machte Perplexity den Sachverständigenrat deutscher Stiftungen. Diese Institution existiert nicht.
Ein dazugehöriges Umfrageergebnis, dass 68 Prozent der Deutschen Migration als kulturelle Bereicherung wahrnehmen, war ebenfalls erfunden. Genauer gesagt: synthetisiert aus zwei verschiedenen Erhebungen des Sachverständigenrats aus verschiedenen Jahren. Das Tool vermischte Daten, erfand Institutionen und präsentierte das Ergebnis mit der Autorität eines seriösen Forschungsberichts.
Das Problem veralteter Quellen ist real
Eine aktuelle Analyse von NexOrbit AI vom Dezember 2025 bestätigt das von Ihnen beschriebene Problem. Perplexity greift auf eine Vielzahl von Quellen zurück, dabei kommt es vor, dass veraltete Website-Inhalte, überholte Produktinformationen oder nicht mehr aktuelle Studien zitiert werden. Wenn Perplexity eine Website zitiert, aber dabei veraltete oder fehlerhafte Informationen präsentiert, gefährdet das die Markenautorität nachhaltig.
Das Paradoxe: Perplexity wirbt damit, durch Echtzeit-Websuche immer aktuelle Informationen zu liefern. Das stimmt technisch. Das System durchsucht das Web live. Aber es priorisiert nicht automatisch die neuesten Quellen, selbst wenn man explizit einen Zeitraum angibt. Der Algorithmus gewichtet verschiedene Faktoren: Autorität der Domain, Relevanz der Keywords, Nutzerinteraktion mit früheren Ergebnissen. Aktualität ist nur einer von vielen Faktoren.
Nutzer berichten von massiver Qualitätsverschlechterung
Auf Trustpilot häufen sich kritische Bewertungen. Ein Nutzer schreibt: „Vor einigen Monaten noch begeistert finde ich nun eine enorme Verschlechterung. Mittlerweile sind einige Antworten trotz der Quellenangaben nicht korrekt. Selbst wenn man die Quellen anklickt, passen die Inhalte dort nicht zu der Interpretation der KI in der Antwort. Perplexity erfindet eher fast das Gegenteil von dem, was in den Quellen inhaltlich dargestellt wird."
Ein anderer Nutzer ergänzt: „Ich nutze die Pro-Version. Hält sich nicht an Anweisungen, gibt qualitativ schlechte Antworten, lässt sich auch durch Prompt Engineering nicht zu verwertbaren Ergebnissen bringen." Ein dritter berichtet: „Perplexity kriegt einfachste Aufgaben nicht auf die Reihe. Da helfen auch die Quellenangaben nicht viel."
Warum Perplexity im Business-Alltag gefährlich werden kann
Die Kombination aus Quellenangaben und Fehlern ist toxisch. Denn sie erzeugt falsches Vertrauen. Ein Mitarbeiter recherchiert einen Sachverhalt, Perplexity liefert eine Antwort mit fünf Quellenangaben. Der Mitarbeiter klickt die erste Quelle an, überfliegt den Text, findet etwas, das zur Antwort passen könnte, und geht davon aus, dass die anderen vier Quellen das bestätigen. Er verwendet die Information in einer Präsentation, in einem Bericht, in einer Entscheidungsvorlage.
Später stellt sich heraus, dass die Information falsch war. Die Quellen sagten etwas anderes, oder die zitierten Passagen waren aus dem Kontext gerissen, oder die Daten stammten aus einem anderen Jahr. Der Schaden ist da. Das Vertrauen in die Fachabteilung ist beschädigt, die Entscheidung basiert auf falschen Annahmen, im schlimmsten Fall entstehen rechtliche oder finanzielle Konsequenzen.
Besonders kritisch: Faktenprüfung und Compliance
In Bereichen, wo Präzision entscheidend ist, wird Perplexity zur Haftungsfalle. Rechtsabteilungen, die prüfen müssen, ob eine Aussage rechtlich haltbar ist. Compliance-Teams, die regulatorische Anforderungen recherchieren. Produktmanager, die Wettbewerberanalysen durchführen. Journalisten, die Fakten checken.
In all diesen Bereichen können falsche Quellenangaben und halluzinierte Fakten gravierende Folgen haben. Ein Rechtsanwalt, der sich auf eine Perplexity-Recherche zu einer Gesetzesänderung verlässt, könnte seinen Mandanten falsch beraten. Ein Compliance-Officer, der regulatorische Anforderungen falsch versteht, setzt das Unternehmen Risiken aus. Ein Journalist, der eine Perplexity-Antwort nicht gegencheckt, veröffentlicht Falschinformationen.
Die Illusion der Aktualität
Das von Ihnen beschriebene Problem mit expliziten Zeitangaben ist besonders perfide. Nutzer geben an: „Zeige mir Studien aus 2024" oder „Was sind die neuesten Entwicklungen seit November 2025". Perplexity liefert Ergebnisse, die teilweise aus 2022 oder 2023 stammen. Das System interpretiert „neueste Entwicklungen" möglicherweise anders als der Nutzer es meint.
Der Algorithmus könnte eine gut verlinkte, oft zitierte Studie aus 2022 höher gewichten als eine brandneue, aber weniger bekannte Studie aus 2024. Für den Nutzer sieht es so aus, als hätte Perplexity aktuelle Quellen gefunden. Die Jahreszahlen stehen in den Quellenangaben. Aber wer prüft jeden Link einzeln nach Publikationsdatum?
Was Sie bei der Nutzung von Perplexity beachten müssen
Erstens: Vertrauen Sie niemals blind den Quellenangaben. Klicken Sie jeden Link an und prüfen Sie, ob die zitierte Information tatsächlich so in der Quelle steht. Nicht nur sinngemäß, sondern wörtlich. Perplexity interpretiert, und diese Interpretationen sind oft fehlerhaft.
Zweitens: Prüfen Sie das Publikationsdatum jeder Quelle. Auch wenn Sie explizit nach aktuellen Informationen fragen, kann Perplexity veraltete Quellen liefern. Sortieren Sie mental nach Aktualität und gewichten Sie neuere Quellen höher.
Drittens: Nutzen Sie Perplexity nie als einzige Quelle. Für geschäftskritische Entscheidungen, rechtliche Fragestellungen oder Compliance-Themen brauchen Sie zusätzliche Recherche. Perplexity kann ein Startpunkt sein, aber nie der Endpunkt.
Viertens: Seien Sie besonders vorsichtig bei Zahlen, Statistiken und Studien. Hier halluziniert Perplexity am häufigsten. Eine Zahl kann korrekt sein, aber aus einem anderen Jahr stammen. Eine Prozentzahl kann real sein, sich aber auf etwas anderes beziehen als Perplexity behauptet. Eine Institution kann existieren, aber einen anderen Namen haben.
Fünftens: Dokumentieren Sie Ihre Recherche. Wenn Sie Perplexity-Ergebnisse verwenden, speichern Sie Screenshots der Antworten und der Quellen. Notieren Sie das Datum Ihrer Recherche. Falls später Fragen aufkommen, können Sie nachweisen, was Perplexity Ihnen gesagt hat und welche Quellen es angegeben hat.
Wo Perplexity trotzdem nützlich sein kann
Das soll nicht heißen, dass Perplexity nutzlos ist. Für schnelle Orientierung, für das Finden von Stichworten, für das Entdecken von Themenbereichen, die man vertiefen könnte, funktioniert das Tool. Als Ideengeber, als Startpunkt für tiefergehende Recherche, als Werkzeug zum Durchbrechen von Denkblockaden.
Aber die Zeiten, in denen man Perplexity als verlässliche Rechercheplattform betrachten konnte, sind vorbei. Die Qualitätsverschlechterung, von der Nutzer berichten, die dokumentierten Fehlerquoten, die Probleme mit Quellengenauigkeit und Aktualität machen das Tool für professionelle Anwendungen riskant.
Die gefährliche Kombination aus Autorität und Unzuverlässigkeit
Das eigentliche Problem von Perplexity ist nicht, dass es Fehler macht. Das tun alle KI-Systeme. Das Problem ist, dass es durch sein Design Autorität suggeriert, die es nicht verdient. Die Quellenangaben, die saubere Darstellung, die Behauptung, aktuellste Informationen zu liefern, all das erzeugt Vertrauen. Und dieses Vertrauen wird regelmäßig enttäuscht.
31 Prozent Fehlerquote bedeutet nicht, dass 69 Prozent korrekt sind. Es bedeutet, dass bei jeder dritten Recherche gravierende Fehler auftreten. In einem Business-Kontext, wo Entscheidungen Konsequenzen haben, ist das inakzeptabel. Perplexity mag für persönliche Recherchen, für Allgemeinwissen, für unverbindliche Fragen funktionieren. Für den professionellen Einsatz ist es ein Risiko, das Sie nicht eingehen sollten.
Kommentare ()