Wir alle wissen, dass KI-Tools heutzutage zu viel fähig sind. Aber wie gut sind diese Tools für die Suche im Internet?
Dies ist eine wichtige Frage mit zahlreichen Implikationen. Denn laut einer Studie von Future (Herausgeber von TechRadar) gibt fast ein Drittel der US-Befragten an, dass sie mittlerweile KI anstelle herkömmlicher Suchmaschinen wie Google verwenden.
Manche Leute wenden sich an ChatGPT und andere Chatbots. Andere wiederum verwenden KI-Tools, die speziell für Forschung und Untersuchung entwickelt wurden, wie beispielsweise Perplexity. Auch wenn wir uns nicht aktiv für KI-Tools entscheiden, taucht KI trotzdem in unseren Suchanfragen auf, beispielsweise in den kleinen Google-Zusammenfassungen, die jetzt oben in den Suchergebnissen erscheinen.
Kurz gesagt: KI-gestützte Suchvorgänge gibt es überall. Aber die eigentliche Frage bleibt: Ist es wirklich gut? Das ist es, was sich Forscher langsam fragen, und sagen wir es einfach: Die ersten Einschätzungen sind nicht beeindruckend.
Ist ChatGPT das neue Google? Nicht so schnell...
Menschen können KI-Tools für die Forschung verwenden. Das heißt aber nicht, dass sie es tun sollten.
In unseren jüngsten Tests haben wir vier der besten KI-Chatbots miteinander verglichen, um zu sehen, wie gut sie mit der Suche umgehen: ChatGPT von OpenAI, Gemini von Google, Claude von Anthropic und Perplexity AI.
Die Ergebnisse waren … gemischt. Es war kein komplettes Desaster – allen gelang es, einige relevante Informationen abzurufen –, aber die Genauigkeit war nicht besonders groß. Und wie haben sie diese Informationen zusammengefasst? Sie sind oft verwirrend oder nicht hilfreich.
Diese Ergebnisse stützen umfassendere Tests, die vom Tow Center for Digital Journalism durchgeführt wurden, wie in Columbia Journalism Review. Ihr Team testete acht wichtige KI-Modelle – darunter ChatGPT, Perplexity, Copilot, Grok und Gemini – und stellte wiederkehrende Probleme fest: „überzeugte Darstellung falscher Informationen, irreführende Zuordnung freigegebener Inhalte und inkonsistente Praktiken bei der Informationsbeschaffung.“ Oh mein Gott.
Insgesamt lieferten KI-Modelle auf mehr als 60 % der Anfragen eine falsche Antwort. Perplexity war am genauesten (was mit seiner Vermarktung als Forschungsinstrument übereinstimmt), aber es lieferte trotzdem 37 % der Antworten falsch. Grok schnitt mit einer schockierenden Ausfallrate von 94 % am schlechtesten ab. Kein Kommentar.
Das Tao Center bewertete die Ergebnisse auf einer Skala von völlig richtig bis völlig falsch (oder gar keine Antwort). Zu den schlimmsten Beispielen zählen regelrechte Halluzinationen, bei denen die KI einfach … Dinge erfindet. Aber selbst wenn die Antworten nicht völlig falsch waren, gab es immer noch große Probleme bei der Neubefüllung der Nachrichten und Suchergebnisse durch die Tools.
Forschung ohne Quellen ist keine Forschung.
Das grundlegende Problem besteht darin, Informationen auf diese Weise neu zu formulieren. Auch wenn KI-Technologien keine falschen Informationen liefern, fassen sie Inhalte dennoch auf wenig hilfreiche und oft irreführende Weise zusammen und formen sie um. Wie das Tao Center erklärt:
„Während herkömmliche Suchmaschinen typischerweise als Vermittler fungieren und Benutzer zu Nachrichtenseiten und qualitativ hochwertigen Inhalten weiterleiten, analysieren und verpacken generative Suchtools die Informationen selbst und unterbrechen so den Datenverkehr zu den ursprünglichen Quellen.“
Die Chat-Ergebnisse dieser Bots verschleiern oft gravierende Mängel in der Qualität der Informationen. Es besteht dringender Bedarf, zu überprüfen, wie diese Systeme auf Nachrichteninhalte zugreifen, sie anzeigen und zitieren.
Eines der offensichtlichsten Probleme besteht darin, dass KI-Tools ihre Quellen nur unzureichend zitieren. Beispielsweise verlinkt ChatGPT häufig auf den falschen Artikel, schickt Sie auf die Homepage der Website oder überspringt Zitate vollständig.
Dies ist aus zwei Hauptgründen ein Problem. Erstens verlieren die Herausgeber Verkehr, obwohl ihre Inhalte genutzt werden.
Zweitens wird die Überprüfung der Fakten schwierig. Eine der einzigen Möglichkeiten, KI-Ergebnisse zu überprüfen, besteht darin, auf die Originalquelle zu verweisen – und dies ist schwieriger, wenn diese nicht bereitgestellt wird.
Wenn Ihnen KI also Informationen liefert, für die es keine eindeutige Quelle gibt, lohnt es sich dann wirklich, sie für die Recherche zu verwenden – insbesondere, wenn Sie am Ende sowieso alles über Google überprüfen? Vielleicht nicht.
Ja, KI-Tools werden ständig verbessert. Und ja, einige, wie beispielsweise Perplexity, schneiden besser ab als andere. Aber selbst die Besten brauchen noch immer menschliche Aufsicht. Derzeit sind Roboter in der Forschung noch nicht so weit, autonom zu operieren.