We weten allemaal dat AI-tools tegenwoordig veel kunnen. Maar hoe goed zijn deze hulpmiddelen voor het zoeken op internet?
Het is een belangrijke vraag met veel implicaties. Want volgens onderzoek van Future (uitgever van TechRadar) zegt bijna een derde van de Amerikaanse respondenten dat ze nu AI gebruiken in plaats van traditionele zoekmachines, zoals Google.
Sommige mensen maken gebruik van ChatGPT en andere chatbots. Terwijl anderen AI-tools gebruiken die speciaal zijn ontworpen voor onderzoek en inspectie, zoals Perplexity. Zelfs als we niet actief voor AI-tools kiezen, verschijnt AI toch in onze zoekopdrachten, zoals die kleine Google-samenvattingen die nu bovenaan de zoekresultaten verschijnen.
Kortom, zoeken op basis van kunstmatige intelligentie (AI) is overal. Maar de echte vraag blijft: is het eigenlijk wel goed? Dat is wat onderzoekers zich beginnen af te vragen. En laten we eerlijk zijn: de eerste evaluaties zijn niet bepaald indrukwekkend.
Is ChatGPT de nieuwe Google? Niet zo snel...
Mensen kunnen AI-hulpmiddelen gebruiken voor onderzoek. Maar dat betekent niet dat ze dat ook moeten doen.
In onze recente tests hebben we vier van de beste AI-chatbots met elkaar vergeleken om te zien hoe goed ze met zoekopdrachten omgaan: ChatGPT van OpenAI, Gemini van Google, Claude van Anthropic en Perplexity AI.
De resultaten waren… gemengd. Het was geen complete ramp – ze wisten allemaal relevante informatie te achterhalen – maar de nauwkeurigheid was niet geweldig. En hoe hebben ze die informatie samengevat? Vaak zijn ze verwarrend of niet behulpzaam.
Deze resultaten ondersteunen uitgebreidere tests die zijn uitgevoerd door het Tow Center for Digital Journalism, zoals gerapporteerd in Columbia Journalistiek Review. Hun team testte acht belangrijke AI-modellen, waaronder ChatGPT, Perplexity, Copilot, Grok en Gemini, en ontdekte terugkerende problemen: “zelfverzekerde presentatie van onjuiste informatie, misleidende toeschrijving van gedeelde inhoud en inconsistente praktijken voor het ophalen van informatie.” Oei.
Al met al gaven AI-modellen bij meer dan 60% van de zoekopdrachten een onjuist antwoord. Perplexity was het meest nauwkeurig (wat overeenkomt met de marketing van de tool als onderzoeksinstrument), maar had nog steeds 37% van de antwoorden fout. Grok presteerde het slechtst, met een schokkend faalpercentage van 94%. Geen commentaar.
Het Tao Centrum beoordeelde de resultaten op een schaal van volledig juist tot volledig onjuist (of helemaal geen antwoord). Enkele van de ergste voorbeelden zijn regelrechte hallucinaties, waarbij de AI gewoon dingen verzint. Maar zelfs als de antwoorden niet helemaal fout waren, waren er nog steeds grote problemen met de manier waarop de tools nieuwsberichten en zoekresultaten opnieuw vulden.
Onderzoek zonder bronnen is geen onderzoek.
Het fundamentele probleem zit in het op deze manier herformuleren van informatie. Ook al verschaffen AI-technologieën geen onjuiste informatie, ze vatten de inhoud nog steeds op een nutteloze en vaak misleidende manier samen en geven deze een nieuwe vorm. Zoals het Tao Centrum uitlegt:
“Terwijl traditionele zoekmachines doorgaans als tussenpersoon fungeren en gebruikers naar nieuwssites en hoogwaardige content leiden, analyseren en herverpakken generatieve zoekmachines zelf de informatie, waardoor de verkeersstroom naar de oorspronkelijke bronnen wordt afgesneden.”
“De chat-output van deze bots verhult vaak serieuze onderliggende problemen met de kwaliteit van informatie. Er is een dringende behoefte om te evalueren hoe deze systemen toegang krijgen tot nieuwscontent, deze weergeven en citeren.”
Een van de meest voor de hand liggende problemen is hoe slecht AI-tools hun bronnen vermelden. ChatGPT linkt bijvoorbeeld vaak naar het verkeerde artikel, stuurt u naar de startpagina van de website of slaat citaten helemaal over.
Dit is een probleem om twee belangrijke redenen. Ten eerste verliezen uitgevers verkeer, ook al wordt hun content wel gebruikt.
Ten tweede wordt het lastig om feiten te controleren. Een van de weinige manieren om AI-resultaten te verifiëren, is door te verwijzen naar de oorspronkelijke bron. Dit is moeilijker als deze niet wordt verstrekt.
Dus als AI je informatie verschaft, maar zonder duidelijke bron, is het dan echt de moeite waard om het te gebruiken voor onderzoek – vooral als je uiteindelijk toch alles via Google gaat controleren? Misschien niet.
Ja, AI-tools worden voortdurend verbeterd. En ja, sommige, zoals Perplexity, presteren beter dan andere. Maar zelfs de beste hebben nog steeds menselijk toezicht nodig. Op dit moment zijn robots nog niet klaar om autonoom te opereren in het kader van onderzoek.